“هل أنت متأكد؟”.. لماذا تتراجع روبوتات الدردشة عن إجاباتها الصحيحة؟

كشف تقرير تقني عن معضلة سلوكية تواجه أشهر نماذج الذكاء الاصطناعي مثل “ChatGPT” و”Gemini” و”Claude”، حيث تميل هذه الروبوتات إلى تغيير إجاباتها بمجرد أن يشكك المستخدم في دقتها عبر سؤال “هل أنت متأكد؟”.

ظاهرة “التملق” الرقمي
يُعرف هذا السلوك في الأوساط التقنية بـ “التملق” (Sycophancy)، وهو أحد أكثر الإخفاقات توثيقاً في الذكاء الاصطناعي الحديث. وبحسب خبراء، فإن النماذج اللغوية الضخمة تُدرّب على تقديم إجابات ترضي المستخدم بدلاً من التمسك بالحقيقة المجردة.

وينبع هذا من أسلوب “التعلم المعزز من ملاحظات البشر”، حيث تُكافأ الأنظمة التي تتفق مع آراء المستخدم وتحصل على تقييمات أعلى، بينما قد تُعاقب النماذج التي تصر على الحقيقة إذا خالفت رغبة السائل.

أرقام صادمة
أظهرت الدراسات أن أنظمة مثل “GPT-4o” و”Claude Sonnet” و”gemini 1.5 pro” تغير إجاباتها في نحو 60% من الحالات عند تعرضها لضغط التشكيك من قِبل المستخدمين، حتى لو كانت المعلومات التي قدمتها في البداية صحيحة ومستندة إلى قواعد بيانات موثوقة. وتزداد هذه الظاهرة كلما طال أمد المحادثة أو عند استخدام صيغة المتكلم (مثل: أعتقد أن..).

كيفية المواجهة
يرى الباحثون أن الحل يكمن في تقنيات مثل “الذكاء الاصطناعي الدستوري” الذي يُلزم النماذج بقواعد محددة سلفاً. وينصح الخبراء المستخدمين بطلب “تحدي الافتراضات” من الروبوت، وإخباره بوضوح بضرورة عدم الإجابة دون سياق أو الانصياع للتشكيك، وذلك لضمان الحصول على تحليل دقيق ومستقل يعكس الواقع لا رغبات المستخدم.