أصدرت شركة “OpenAI”، المطورة لتطبيق “ChatGPT”، تحذيراً بشأن احتمالية استخدام الإصدارات المستقبلية من نموذجها الذكي في تصنيع أسلحة بيولوجية فتاكة.
وأوضحت الشركة في منشور حديث على مدونتها الرسمية أن التقدم السريع في قدرات الذكاء الاصطناعي في مجال علم الأحياء قد يؤدي إلى إنتاج معلومات ضارة قد تُستغل من قبل “جهات ماهرة” لتطوير أسلحة بيولوجية. وأضافت أن الوصول الفعلي إلى المختبرات والمواد الحساسة لا يزال يشكل حاجزاً، لكنه ليس حاجزاً مطلقاً يمكن استبعاده.
وفي مشهد أثار جدلاً واسعاً، ظهر أحد طلاب الدراسات العليا في جامعة كاليفورنيا بلوس أنجلوس (UCLA) خلال حفل تخرجه وهو يعرض بفخر على حاسوبه المحمول واجهة برنامج ChatGPT، الأداة التي اتُهم سابقاً باستخدامها لإنهاء مشاريعه الدراسية.
وشدّدت “OpenAI” على أنها لا تعتبر من المقبول انتظار وقوع كارثة بيولوجية لتقرر متى تُطبق الضوابط الوقائية اللازمة، مشيرةّ إلى أنها تعمل بالفعل مع خبراء في الأمن البيولوجي والإرهاب البيولوجي لضمان سلامة استخدام “شات جي بي تي”.
ورغم تأكيدات رئيس قسم الأمان في الشركة، يوهانس هايديكه، بأن النماذج القادمة لن تكون قادرة على تصنيع سلاح بيولوجي من تلقاء نفسها، إلا أنه حذّر من إمكانية استغلالها من قبل غير الخبراء في محاكاة تهديدات بيولوجية قائمة.
وشبّه هايديكه مستوى الأمان المطلوب بـ”الإتقان التام”، قائلاً: “هذه ليست مسألة يكفي فيها أداء بنسبة 99%، أو حتى خطأ واحد في كل 100 ألف مرة”.
اترك ردك