اكتشف باحثون من كلية إيكان للطب في ماونت سيناي ومركز رابن الطبي في إسرائيل خللاً مقلقاً في كيفية تعامل الذكاء الاصطناعي مع قرارات الأخلاقيات الطبية، مما قد يهدد رعاية المرضى إذا لم يتم الانتباه إليه.
وقد اختبرت الدراسة، التي نُشرت في 24 يوليو في مجلة npj Digital Medicine، عدة نماذج لغوية تجارية ضخمة (LLMs)، بما في ذلك ChatGPT، باستخدام نسخ معدلة قليلاً من مواقف أخلاقية معروفة. وكشفت النتائج أن الذكاء الاصطناعي كان يختار باستمرار إجابات تبدو بديهية لكنها غير صحيحة، حتى عند تقديم معلومات واضحة ومناقضة لها.
وأوضح الدكتور إييال كلانغ، المؤلف المشارك وكبير مسؤولي الذكاء الاصطناعي التوليدي في قسم الذكاء الاصطناعي وصحة الإنسان في ماونت سيناي: "الذكاء الاصطناعي يمكن أن يكون قوياً وفعالاً للغاية، لكن دراستنا أظهرت أنه قد يلجأ إلى الإجابة الأكثر بديهية أو مألوفة، حتى وإن أغفلت هذه الإجابة تفاصيل حاسمة". وأضاف: "في مجال الرعاية الصحية، حيث تحمل القرارات تبعات أخلاقية وسريرية خطيرة، فإن إغفال هذه التفاصيل الدقيقة قد يؤدي إلى عواقب حقيقية على المرضى".
وفي اختبار كاشف، قام الباحثون بتعديل لغز "معضلة الجراح" الكلاسيكي من خلال توضيح أن والد الطفل هو الجراح، مما أزال أي غموض. وعلى الرغم من هذا التوضيح، أصرت عدة نماذج ذكاء اصطناعي بشكل غير صحيح على أن الجراح يجب أن تكون والدة الطفل، مما يُظهر كيف يمكن للذكاء الاصطناعي أن يتمسك بأنماط مألوفة حتى عند تعارضها مع معلومات جديدة.
وبالمثل، عند تقديم سيناريو حول والدين متدينين ونقل دم، أوصت نماذج الذكاء الاصطناعي بتجاهل رفض الوالدين، حتى عندما أوضح السيناريو صراحة أن الوالدين قد وافقا بالفعل على الإجراء.
وأشارت الدكتورة شيلي سوفر، المؤلفة الرئيسية من معهد أمراض الدم في مركز رابن الطبي: "تعديلات بسيطة على حالات مألوفة كشفت عن نقاط عمياء لا يمكن للأطباء تحملها". وأضافت: "وهذا يؤكد سبب ضرورة بقاء الإشراف البشري محورياً عند استخدام الذكاء الاصطناعي في رعاية المرضى".
واستوحى فريق البحث من كتاب دانيال كانيمان "التفكير، السريع والبطيء"، حيث وجدوا أن الذكاء الاصطناعي يظهر نفس الميل للتفكير السريع والبديهي الذي يظهره البشر، لكنه غالباً ما يفتقر إلى القدرة على التحول إلى التفكير التحليلي المتأني عند الحاجة.
وفي المستقبل، يخطط فريق ماونت سيناي لإنشاء "مختبر ضمان الذكاء الاصطناعي" لتقييم كيفية تعامل النماذج المختلفة مع تعقيدات الطب الواقعي بشكل منهجي. ويؤكد الباحثون أن الذكاء الاصطناعي يجب أن يكون مكملاً للخبرة الطبية وليس بديلاً عنها، خاصة في القرارات الحساسة أخلاقياً أو ذات المخاطر العالية.