ظاهرة “التملق” الرقمي
يُعرف هذا السلوك في الأوساط التقنية بـ “التملق” (Sycophancy)، وهو أحد أكثر الإخفاقات توثيقاً في الذكاء الاصطناعي الحديث. وبحسب خبراء، فإن النماذج اللغوية الضخمة تُدرّب على تقديم إجابات ترضي المستخدم بدلاً من التمسك بالحقيقة المجردة.
أرقام صادمة
أظهرت الدراسات أن أنظمة مثل “GPT-4o” و”Claude Sonnet” و”gemini 1.5 pro” تغير إجاباتها في نحو 60% من الحالات عند تعرضها لضغط التشكيك من قِبل المستخدمين، حتى لو كانت المعلومات التي قدمتها في البداية صحيحة ومستندة إلى قواعد بيانات موثوقة. وتزداد هذه الظاهرة كلما طال أمد المحادثة أو عند استخدام صيغة المتكلم (مثل: أعتقد أن..).
كيفية المواجهة
يرى الباحثون أن الحل يكمن في تقنيات مثل “الذكاء الاصطناعي الدستوري” الذي يُلزم النماذج بقواعد محددة سلفاً. وينصح الخبراء المستخدمين بطلب “تحدي الافتراضات” من الروبوت، وإخباره بوضوح بضرورة عدم الإجابة دون سياق أو الانصياع للتشكيك، وذلك لضمان الحصول على تحليل دقيق ومستقل يعكس الواقع لا رغبات المستخدم.












اترك ردك