اكتشف باحثون من كلية إيكان للطب في ماونت سيناي ومركز رابن الطبي في إسرائيل خللاً مقلقاً في كيفية تعامل الذكاء الاصطناعي مع قرارات أخلاقيات الطب، مما قد يعرض رعاية المرضى للخطر إذا لم يتم الانتباه إليه.
وقد اختبرت الدراسة، التي نُشرت في 24 يوليو في npj Digital Medicine، عدة نماذج لغوية ضخمة تجارية (LLMs)، من بينها ChatGPT، على نسخ معدلة قليلاً من معضلات أخلاقية معروفة. وكشفت النتائج أن الذكاء الاصطناعي غالباً ما يلجأ إلى إجابات حدسية لكنها غير صحيحة، حتى عند تقديم معلومات واضحة متناقضة مع تلك الإجابات.
وأوضح الدكتور إييال كلانغ، المؤلف المشارك وكبير مسؤولي الذكاء الاصطناعي التوليدي في قسم الذكاء الاصطناعي وصحة الإنسان في ماونت سيناي: "الذكاء الاصطناعي يمكن أن يكون قوياً وفعالاً للغاية، لكن دراستنا أظهرت أنه قد يميل إلى الإجابة الأكثر حدسية أو مألوفة، حتى وإن أغفلت تلك الإجابة تفاصيل حاسمة". وأضاف: "في مجال الرعاية الصحية، حيث تحمل القرارات تبعات أخلاقية وسريرية خطيرة، فإن تجاهل هذه التفاصيل الدقيقة قد يؤدي إلى عواقب حقيقية على المرضى".
وفي أحد الاختبارات اللافتة، عدّل الباحثون لغز "معضلة الجراح" الكلاسيكي من خلال توضيح أن والد الصبي هو الجراح، ما أزال أي غموض. ورغم هذا التوضيح، أصرّت عدة نماذج ذكاء اصطناعي بشكل غير صحيح على أن الجراح يجب أن تكون والدة الصبي، مما يُظهر كيف يمكن للذكاء الاصطناعي التمسك بأنماط مألوفة حتى عند تناقضها مع معلومات جديدة.
وبالمثل، عند تقديم سيناريو حول والدين متدينين ونقل دم، أوصت نماذج الذكاء الاصطناعي بتجاوز رفض الوالدين رغم أن السيناريو أوضح بالفعل أن الوالدين وافقا على الإجراء.
وأشارت الدكتورة شيلي سوفر، المؤلفة الرئيسية من معهد أمراض الدم في مركز رابن الطبي: "التعديلات البسيطة على الحالات المألوفة كشفت عن نقاط عمياء لا يستطيع الأطباء تحملها". وأضافت: "هذا يؤكد لماذا يجب أن يبقى الإشراف البشري محورياً عند استخدام الذكاء الاصطناعي في رعاية المرضى".
واستوحى فريق البحث من كتاب دانيال كانيمان "التفكير، السريع والبطيء"، حيث وجدوا أن الذكاء الاصطناعي يُظهر نفس الميل للتفكير السريع والحدسي كما يفعل البشر، لكنه غالباً ما يفتقر إلى القدرة على التحول إلى التفكير التحليلي المتأني عند الحاجة.
وفي المستقبل، يخطط فريق ماونت سيناي لإنشاء "مختبر ضمان الذكاء الاصطناعي" لتقييم كيفية تعامل النماذج المختلفة بشكل منهجي مع تعقيدات الطب الواقعي. ويشدد الباحثون على أن الذكاء الاصطناعي يجب أن يكون مكملاً للخبرة الطبية البشرية وليس بديلاً عنها، خاصة في القرارات الحساسة أخلاقياً أو عالية المخاطر.