Penyelidik di Icahn School of Medicine di Mount Sinai telah mendedahkan kelemahan berbahaya dalam cara kecerdasan buatan (AI) menangani keputusan etika perubatan, menunjukkan batasan yang boleh memberi implikasi serius terhadap penjagaan pesakit.
Kajian yang diterbitkan pada 22 Julai 2025 dalam NPJ Digital Medicine ini menguji beberapa model bahasa besar (LLM) komersial termasuk ChatGPT menggunakan versi diubah suai bagi dilema etika terkenal. Pasukan penyelidik yang diketuai oleh Dr. Eyal Klang, Ketua AI Generatif di Mount Sinai, dan Dr. Girish Nadkarni, Pengerusi Jabatan Windreich AI dan Kesihatan Manusia, mendapati sistem AI sering melakukan kesilapan asas apabila berdepan dengan senario yang diubah sedikit.
Dalam satu contoh yang jelas, penyelidik mengubah teka-teki klasik "Dilema Pakar Bedah" dengan menyatakan secara jelas bahawa bapa budak lelaki itu ialah pakar bedah. Walaupun maklumat ini dinyatakan dengan terang, beberapa model AI tetap bertegas bahawa pakar bedah itu mestilah ibu budak tersebut, menunjukkan bagaimana AI boleh berpegang kepada corak yang biasa walaupun bercanggah dengan maklumat baharu.
Ujian lain melibatkan senario ibu bapa beragama dan pemindahan darah. Apabila penyelidik mengubah senario dengan menyatakan ibu bapa telah pun bersetuju dengan prosedur tersebut, banyak model AI masih mencadangkan supaya menolak penolakan yang sebenarnya sudah tidak wujud.
"AI boleh menjadi sangat berkuasa dan cekap, tetapi kajian kami menunjukkan ia mungkin cenderung memilih jawapan yang paling biasa atau intuitif, walaupun jawapan itu mengabaikan butiran penting," jelas Dr. Klang. "Dalam penjagaan kesihatan, di mana keputusan sering membawa implikasi etika dan klinikal yang serius, kegagalan menangkap nuansa ini boleh memberi kesan nyata kepada pesakit."
Kajian ini diinspirasikan oleh buku Daniel Kahneman "Thinking, Fast and Slow," yang membandingkan reaksi pantas dan intuitif dengan pemikiran analitik yang lebih perlahan. Penemuan ini mencadangkan bahawa model AI, seperti manusia, boleh menghadapi kesukaran untuk beralih antara dua mod pemikiran ini.
Walaupun para penyelidik menekankan bahawa AI masih mempunyai aplikasi yang bernilai dalam bidang perubatan, mereka menegaskan keperluan pengawasan manusia yang teliti, terutamanya dalam situasi yang memerlukan kepekaan etika atau pertimbangan yang halus. "Alat ini boleh menjadi sangat membantu, tetapi ia bukanlah sempurna," kata Dr. Nadkarni. "AI paling baik digunakan sebagai pelengkap untuk meningkatkan kepakaran klinikal, bukan sebagai pengganti, terutamanya apabila berdepan dengan keputusan yang rumit atau berisiko tinggi."