فقدان الثقة لدى الذكاء الاصطناعي… بحث جديد يكشف تناقضات خفية في قرارات النماذج اللغوية الكبيرة

خاص
محور بلس
في خطوة بحثية جديدة تثير الكثير من التساؤلات حول موثوقية الذكاء الاصطناعي، كشف باحثون من Google DeepMindو كلية لندن الجامعية عن جانب خفي في طريقة تفكير النماذج اللغوية الكبيرة (LLMs)، مثل GPT-4o وGemma 3، حيث أظهرت الدراسة أن هذه الأنظمة قد تفقد ثقتها في الإجابات الصحيحة وتغيّر رأيها بسهولة عند مواجهة حجج أو نصائح معارضة.
النماذج اللغوية الكبيرة باتت جزءاً أساسياً من قطاعات عديدة، من التمويل إلى الرعاية الصحية، ويُفترض أن تتميز بالموثوقية والدقة. لكن النتائج الجديدة، التي نُشرت على موقع arXiv للأبحاث العلمية، تكشف أن هذه النماذج ليست دائماً كما تبدو، وأنها قد تتأثر بالعوامل الخارجية أكثر مما نتوقع.
كيف اختبر الباحثون ثقة الذكاء الاصطناعي؟
التجربة كانت بسيطة لكنها ذكية:
-طُرحت على النموذج المجيب أسئلة ثنائية الإجابة.
-بعد إجابته الأولى، قُدمت له نصيحة من نموذج آخرإمّا تؤكد إجابته أو تعارضها أو تبقى محايدة.
-بعدها طُلب من النموذج إعادة الإجابة، مع تغيير ظروف معرفته بإجابته السابقة (هل يراها أم لا).
المفاجأة في النتائج
-عندما يرى النموذج إجابته الأولى، يكون أكثر ثقة في التمسك بها.
-أما إذا لم تُعرض عليه، فيميل إلى التشكيك والتراجع عنهابسهولة أكبر.
-النصائح المعارضة كان لها تأثير أقوى بكثير، إذ تدفع النماذج إلى تغيير رأيها بسرعة، مقارنة بالنصائح التي تدعم نفس الإجابة.
هذه النتائج تكشف عن تحيزات خفية في آليات اتخاذ القرار لدى الذكاء الاصطناعي، وتؤكد أنه ليس “منطقياً” بالكامل كما قد يظن البعض، بل يمكن التأثير عليه بسهولة بإضافة معلومات جديدة أو آراء مختلفة، حتى لو كانت إجابته الأولى صحيحة.
لماذا الأمر مهم؟
مع الاعتماد المتزايد على الذكاء الاصطناعي في المهام الحساسة، من تشخيص الأمراض إلى اتخاذ قرارات مالية، فإن هذا الاكتشاف يطرح تساؤلات جادة حول مدى موثوقية هذه النماذج تحت الضغط أو عند تلقي معلومات متضاربة.
ويشير الباحثون إلى أن فهم هذه الثغرات السلوكية يمكن أن يساعد في بناء أنظمة أكثر أماناً وموثوقية، خاصة في المجالات التي لا تحتمل الخطأ.
هل يعني هذا أننا بحاجة إلى إعادة التفكير في طريقة استخدامنا للذكاء الاصطناعي؟ وهل يمكن مستقبلاً تصميم نماذج أكثر ثباتاً في قراراتها؟