تقرير بريطاني يكشف: باحثون يعملون لكشف “صندوق الذكاء الاصطناعي الأسود”

كشف تقرير بريطاني جديد أن باحثين يسعون هذه الأيام، إلى تطوير طرق جديدة تساعد على فهم كيفية اتخاذ أنظمة الذكاء الاصطناعي قراراتها.

ولفت التقرير إلى أن هذه الخطوة تأتي في محاولة لكشف ما يعرف بـ”الصندوق الأسود”، الذي يصف عمل كثير من نماذج التعلم الآلي المتقدمة، والتي تقدم نتائج دقيقة دون أن يكون من السهل معرفة الأسس التي اعتمدت عليها، وفقاً لصحيفة “The Guardian”.

وأوضح التقرير أن فريقاً بحثياً في معهد ماساتشوستس للتكنولوجيا (MIT)، يعمل على تطوير تقنيات تتيح لأنظمة الذكاء الاصطناعي تفسير قراراتها بشكل أوضح، بما يسهم في تعزيز الثقة بهذه الأنظمة مع توسع استخدامها في مجالات حساسة مثل الطب والنقل والبحث العلمي.

وأشار التقرير إلى أن النهج الجديد يرتكز على نموذج يعرف باسم “عنق الزجاجة المفاهيمي”، حيث لا ينتقل النظام مباشرةً من البيانات إلى النتيجة، بل يحدد أولاً مجموعة مفاهيم أو خصائص يمكن للبشر فهمها، ثم يعتمد عليها في إصدار التنبؤات والقرارات.

يذكر أن هذا الأسلوب يسمح بربط نتائج النظام بعوامل واضحة يمكن تفسيرها، ما يساعد المستخدمين والباحثين على فهم أسباب القرارات التي يتخذها الذكاء الاصطناعي بدقة أكبر.

فيما يرى الباحثون أن هذه المقاربة قد تسهم في تطوير أنظمة ذكاء اصطناعي أكثر شفافية وموثوقية، عبر تقليل الغموض في عمل الخوارزميات.(العربية)