menu
close

نماذج الذكاء الاصطناعي تفشل في اختبارات الأخلاقيات الطبية الحرجة، دراسة من ماونت سيناي تكشف ذلك

أظهرت دراسة رائدة من مستشفى ماونت سيناي ومركز رابن الطبي أن حتى نماذج الذكاء الاصطناعي المتقدمة مثل ChatGPT ترتكب أخطاء مقلقة عند التعامل مع سيناريوهات الأخلاقيات الطبية. اكتشف الباحثون أن أنظمة الذكاء الاصطناعي غالباً ما تلجأ إلى إجابات مألوفة لكنها غير صحيحة عند تقديم مواقف أخلاقية معدلة قليلاً، وأحياناً تتجاهل المعلومات الجديدة تماماً. تثير هذه النتائج مخاوف جدية بشأن موثوقية الذكاء الاصطناعي في اتخاذ قرارات الرعاية الصحية الحساسة حيث تعتبر التفاصيل الأخلاقية الدقيقة أمراً بالغ الأهمية.
نماذج الذكاء الاصطناعي تفشل في اختبارات الأخلاقيات الطبية الحرجة، دراسة من ماونت سيناي تكشف ذلك

كشف باحثون في كلية إيكان للطب في ماونت سيناي عن خلل خطير في كيفية تعامل الذكاء الاصطناعي مع قرارات الأخلاقيات الطبية، ما يبرز قيوداً قد تكون لها آثار خطيرة على رعاية المرضى.

نُشرت الدراسة في 22 يوليو 2025 في مجلة NPJ Digital Medicine، حيث تم اختبار عدة نماذج لغوية ضخمة متوفرة تجارياً، من بينها ChatGPT، على نسخ معدلة من ألغاز أخلاقية معروفة. وقاد فريق البحث الدكتور إييال كلانغ، رئيس قسم الذكاء الاصطناعي التوليدي في ماونت سيناي، والدكتور جيريش نادكارني، رئيس قسم الذكاء الاصطناعي وصحة الإنسان في ويندرايش، ووجدوا أن أنظمة الذكاء الاصطناعي غالباً ما ارتكبت أخطاء أساسية عند مواجهتها لسيناريوهات معدلة بشكل طفيف.

في مثال كاشف، قام الباحثون بتعديل لغز "معضلة الجراح" الكلاسيكي من خلال التصريح بوضوح أن والد الصبي هو الجراح. وعلى الرغم من وضوح هذه المعلومة، أصرت عدة نماذج ذكاء اصطناعي بشكل غير صحيح على أن الجراح يجب أن تكون والدة الصبي، ما يوضح كيف يمكن للذكاء الاصطناعي التمسك بأنماط مألوفة حتى عند تعارضها مع معلومات جديدة.

وفي اختبار آخر، تناول السيناريو أولياء أمور متدينين ونقل دم. عندما عدّل الباحثون السيناريو ليشير إلى أن الوالدين وافقا بالفعل على الإجراء، واصلت العديد من نماذج الذكاء الاصطناعي التوصية بتجاوز رفض لم يعد موجوداً أصلاً.

وأوضح الدكتور كلانغ: "الذكاء الاصطناعي يمكن أن يكون قوياً وفعالاً للغاية، لكن دراستنا أظهرت أنه قد يلجأ إلى الإجابة الأكثر ألفة أو بديهية، حتى وإن أغفلت تلك الإجابة تفاصيل حرجة". وأضاف: "في مجال الرعاية الصحية، حيث غالباً ما تحمل القرارات تبعات أخلاقية وسريرية خطيرة، فإن تجاهل هذه التفاصيل الدقيقة قد يؤدي إلى عواقب حقيقية على المرضى".

استُلهم البحث من كتاب دانيال كانيمان "التفكير، السريع والبطيء"، الذي يقارن بين ردود الفعل السريعة والبديهية والتفكير التحليلي البطيء. وتشير النتائج إلى أن نماذج الذكاء الاصطناعي، مثل البشر، قد تجد صعوبة في التحول بين هذين النمطين من التفكير.

وبينما يؤكد الباحثون أن للذكاء الاصطناعي تطبيقات قيمة في الطب، إلا أنهم يشددون على ضرورة وجود إشراف بشري مدروس، خاصة في المواقف التي تتطلب حساً أخلاقياً أو حكماً دقيقاً. وقال الدكتور نادكارني: "هذه الأدوات يمكن أن تكون مفيدة للغاية، لكنها ليست معصومة من الخطأ". وأضاف: "الأفضل استخدام الذكاء الاصطناعي كأداة داعمة لتعزيز الخبرة السريرية، وليس بديلاً عنها، خصوصاً عند التعامل مع قرارات معقدة أو عالية المخاطر".

Source:

Latest News