أصبحت أنظمة الذكاء الاصطناعي مثل ChatGPT بارعة بشكل ملحوظ في توليد إجابات تبدو مقنعة لأي استفسار تقريبًا. ومع ذلك، غالبًا ما تفشل هذه الأنظمة في الاعتراف بحدود معرفتها أو التعبير عن عدم اليقين عند الحاجة، وهو ما يشكل خطرًا كبيرًا مع تسارع اعتماد الذكاء الاصطناعي في القطاعات الحيوية.
تأسست Themis AI في عام 2021 على يد باحثين من معهد MIT: دانييلا روس، ألكسندر أميني، وإلهه أحمدي، وقد طورت حلًا لهذه المشكلة. تتيح منصتهم "كابسا" (Capsa) إمكانية دمجها مع أي نموذج تعلم آلي لاكتشاف وتصحيح المخرجات غير الموثوقة خلال ثوانٍ معدودة.
يشرح أميني، الشريك المؤسس لـ Themis AI: "جميعنا رأينا أمثلة على أخطاء أو هلوسات الذكاء الاصطناعي. ومع التوسع في استخدام الذكاء الاصطناعي، قد تؤدي تلك الأخطاء إلى عواقب وخيمة. Themis تجعل من الممكن لأي نظام ذكاء اصطناعي التنبؤ بفشله قبل وقوعه".
تعمل التقنية عبر تعديل النماذج لتتعرف على الأنماط في معالجة البيانات التي تشير إلى الغموض أو النقص أو التحيز. هذا يمكّن النماذج من قياس درجة عدم يقينها لكل مخرج وتنبيه المستخدم للأخطاء المحتملة. التنفيذ سهل للغاية، إذ يتطلب فقط بضعة أسطر من الشيفرة لتحويل النموذج الحالي إلى نموذج مدرك لعدم اليقين.
تُستخدم كابسا بالفعل في عدة قطاعات. فشركات الأدوية تستعين بها لتحسين نماذج الذكاء الاصطناعي التي تحدد المرشحين للأدوية وتتنبأ بنتائج التجارب السريرية. كما يطبقها مطورو النماذج اللغوية الكبيرة لجعل الإجابات أكثر موثوقية والتنبيه للمخرجات غير الموثوقة. وتدخل Themis AI أيضًا في محادثات مع شركات أشباه الموصلات لتعزيز حلول الذكاء الاصطناعي في بيئات الحوسبة الطرفية.
تقول روس، مديرة مختبر علوم الحاسب والذكاء الاصطناعي في MIT: "من خلال قياس عدم اليقين العشوائي والمعرفي تلقائيًا، تُعد كابسا تقنية تحولية تتيح اكتشاف أخطاء النماذج قبل أن تتحول إلى أخطاء مكلفة. إنها توسع استخدامات أنظمة الذكاء الاصطناعي في تطبيقات تتطلب الأمان والموثوقية، مثل الروبوتات والقيادة الذاتية".
ومع استمرار تطور الذكاء الاصطناعي وانتشاره في القطاعات الحيوية، ستلعب حلول مثل كابسا دورًا محوريًا في بناء أنظمة أكثر موثوقية تعترف بحدودها، وهو خطوة أساسية نحو نشر الذكاء الاصطناعي المسؤول في البيئات الحساسة.