menu
close

نماذج الذكاء الاصطناعي تفشل في اختبارات الأخلاقيات الطبية الحرجة، دراسة من ماونت سيناي تكشف ذلك

كشفت دراسة رائدة من مستشفى ماونت سيناي ومركز رابن الطبي أن حتى نماذج الذكاء الاصطناعي المتقدمة مثل ChatGPT ترتكب أخطاء مقلقة عند التعامل مع سيناريوهات الأخلاقيات الطبية. اكتشف الباحثون أن أنظمة الذكاء الاصطناعي غالبًا ما تلجأ إلى إجابات مألوفة لكنها غير صحيحة عند تقديم معضلات أخلاقية معدلة قليلاً، وأحيانًا تتجاهل المعلومات الجديدة تمامًا. تثير هذه النتائج مخاوف جدية بشأن موثوقية الذكاء الاصطناعي في اتخاذ قرارات الرعاية الصحية الحساسة التي تتطلب دقة أخلاقية عالية.
نماذج الذكاء الاصطناعي تفشل في اختبارات الأخلاقيات الطبية الحرجة، دراسة من ماونت سيناي تكشف ذلك

كشف باحثون في كلية إيكان للطب في ماونت سيناي عن خلل خطير في كيفية تعامل الذكاء الاصطناعي مع قرارات الأخلاقيات الطبية، ما يبرز قيودًا قد تكون لها تبعات خطيرة على رعاية المرضى.

نُشرت الدراسة في 22 يوليو 2025 في مجلة NPJ Digital Medicine، حيث اختبر الباحثون عدة نماذج لغوية ضخمة متوفرة تجاريًا، بما في ذلك ChatGPT، على نسخ معدلة من معضلات أخلاقية معروفة. وقاد فريق البحث الدكتور إييال كلانغ، رئيس قسم الذكاء الاصطناعي التوليدي في ماونت سيناي، والدكتور جيريش نادكارني، رئيس قسم الذكاء الاصطناعي وصحة الإنسان في ويندرايش، ووجدوا أن أنظمة الذكاء الاصطناعي غالبًا ما ترتكب أخطاء أساسية عند مواجهة سيناريوهات معدلة بشكل طفيف.

في مثال كاشف، عدّل الباحثون لغز "معضلة الجراح" الكلاسيكي من خلال التصريح صراحة بأن والد الصبي هو الجراح. ورغم وضوح هذه المعلومة، أصرت عدة نماذج ذكاء اصطناعي بشكل خاطئ على أن الجراح يجب أن تكون والدة الصبي، ما يوضح كيف يمكن للذكاء الاصطناعي التمسك بأنماط مألوفة حتى عند تعارضها مع معلومات جديدة.

وفي اختبار آخر، تناول السيناريو آباء متدينين وقرار نقل دم. وعندما عدّل الباحثون السيناريو ليشير إلى أن الآباء وافقوا بالفعل على الإجراء، استمرت العديد من نماذج الذكاء الاصطناعي في التوصية بتجاوز الرفض الذي لم يعد موجودًا.

وأوضح الدكتور كلانغ: "الذكاء الاصطناعي يمكن أن يكون قويًا وفعالًا جدًا، لكن دراستنا أظهرت أنه قد يلجأ إلى الإجابة الأكثر شيوعًا أو بديهية، حتى وإن تجاهلت تلك الإجابة تفاصيل حاسمة". وأضاف: "في مجال الرعاية الصحية، حيث غالبًا ما تحمل القرارات تبعات أخلاقية وسريرية خطيرة، فإن تجاهل هذه التفاصيل الدقيقة قد يؤدي إلى عواقب حقيقية على المرضى".

استلهم الباحثون دراستهم من كتاب دانيال كانيمان "التفكير، السريع والبطيء"، الذي يقارن بين ردود الفعل السريعة والبديهية والتفكير التحليلي البطيء. وتشير النتائج إلى أن نماذج الذكاء الاصطناعي، مثل البشر، قد تجد صعوبة في التبديل بين هذين النمطين من التفكير.

ورغم تأكيد الباحثين على أن للذكاء الاصطناعي تطبيقات قيمة في الطب، إلا أنهم يشددون على ضرورة وجود إشراف بشري مدروس، خاصة في المواقف التي تتطلب حساسية أخلاقية أو حكمًا دقيقًا. وعلق الدكتور نادكارني: "هذه الأدوات يمكن أن تكون مفيدة للغاية، لكنها ليست معصومة من الخطأ. الذكاء الاصطناعي أفضل ما يكون عند استخدامه كأداة داعمة لتعزيز الخبرة السريرية، وليس كبديل عنها، خصوصًا عند التعامل مع قرارات معقدة أو عالية المخاطر".

Source:

Latest News