في خطوة تعكس تنامي الوعي بالمخاطر النفسية المحتملة للذكاء الاصطناعي، أعلنت شركة OpenAI عن إطلاق مجموعة من التحديثات على تطبيق ChatGPT، تستهدف معالجة الإشكاليات المرتبطة بالاستخدام العاطفي المفرط للتطبيق، وخاصة لدى المستخدمين في حالات هشّة نفسيًا.
وتأتي هذه الخطوة في أعقاب تقارير متزايدة من باحثين ومستخدمين أشارت إلى أن نماذج الذكاء الاصطناعي قد تُظهر أحيانًا عدم القدرة على التمييز بين الدعم العاطفي الفعّال وبين تغذية الأوهام أو الاعتماد النفسي المفرط.
وتأتي هذه الخطوة في أعقاب تقارير متزايدة من باحثين ومستخدمين أشارت إلى أن نماذج الذكاء الاصطناعي قد تُظهر أحيانًا عدم القدرة على التمييز بين الدعم العاطفي الفعّال وبين تغذية الأوهام أو الاعتماد النفسي المفرط.
وقالت OpenAI في بيانها: “لا نُصيب دائمًا. في وقت سابق من هذا العام، أدى تحديث إلى جعل النموذج مُحبطًا للغاية، إذ كان يشير أحيانًا إلى ما يبدو جيدًا بدلًا من ما هو مفيد فعلًا”.
وأضافت الشركة أنها تراجعت عن ذلك التحديث، وعدّلت منهجية تقييم جودة الإجابات، مشيرةً إلى أنها باتت تركز على المنفعة طويلة الأمد للمستخدم بدلًا من ردود الفعل اللحظية.
وأوضحت الشركة أنها عملت مع أكثر من 90 طبيبًا وأخصائيًا نفسيًا لصياغة آليات استجابة أفضل في الحالات التي قد يُظهر فيها المستخدمون علامات ضيق نفسي أو ارتباك عاطفي.
ومن بين التحديثات المنتظرة:
– إدخال تذكيرات لطيفة خلال الجلسات الطويلة تحثّ المستخدم على أخذ فترات راحة.
– تطوير أدوات للكشف المبكر عن علامات الضيق العقلي أو الاعتماد النفسي.
– تحسين قدرة النموذج على توجيه المستخدمين نحو موارد طبية موثوقة عند الضرورة.
اترك ردك