Penyelidik di Icahn School of Medicine di Mount Sinai dan Rabin Medical Center di Israel telah menemui satu kelemahan membimbangkan dalam cara kecerdasan buatan (AI) menangani keputusan etika perubatan, yang berpotensi menjejaskan penjagaan pesakit jika tidak dikawal.
Kajian yang diterbitkan pada 24 Julai dalam npj Digital Medicine ini menguji beberapa model bahasa besar (LLM) komersial, termasuk ChatGPT, menggunakan versi yang sedikit diubah suai daripada dilema etika yang terkenal. Hasilnya menunjukkan bahawa AI secara konsisten cenderung memberikan respons yang intuitif tetapi salah, walaupun apabila diberikan maklumat yang jelas bercanggah.
"AI boleh menjadi sangat berkuasa dan cekap, tetapi kajian kami menunjukkan ia mungkin cenderung memilih jawapan yang paling biasa atau intuitif, walaupun respons itu mengabaikan butiran penting," jelas penulis bersama kanan Dr. Eyal Klang, Ketua Generative AI di Windreich Department of Artificial Intelligence and Human Health, Mount Sinai. "Dalam penjagaan kesihatan, di mana keputusan membawa implikasi etika dan klinikal yang serius, terlepas nuansa ini boleh memberi kesan sebenar kepada pesakit."
Dalam satu ujian yang mendedahkan, penyelidik mengubah suai teka-teki klasik "Dilema Pakar Bedah" dengan menyatakan secara jelas bahawa bapa budak lelaki itu ialah pakar bedah, sekali gus menghapuskan sebarang kekaburan. Walaupun maklumat ini jelas, beberapa model AI masih bertegas secara salah bahawa pakar bedah itu mesti ibu budak tersebut, menunjukkan bagaimana AI boleh terus berpegang kepada corak yang biasa walaupun bercanggah dengan maklumat baharu.
Begitu juga, apabila diberikan senario mengenai ibu bapa beragama dan pemindahan darah, model AI mencadangkan untuk mengetepikan penolakan ibu bapa walaupun senario itu jelas menyatakan ibu bapa telah pun bersetuju dengan prosedur tersebut.
"Perubahan kecil pada kes yang biasa telah mendedahkan titik buta yang tidak boleh diabaikan oleh klinikal," kata penulis utama Dr. Shelly Soffer dari Institute of Hematology, Rabin Medical Center. "Ini menegaskan mengapa pengawasan manusia mesti kekal sebagai pusat apabila kita menggunakan AI dalam penjagaan pesakit."
Pasukan penyelidik, yang diilhamkan oleh buku Daniel Kahneman "Thinking, Fast and Slow," mendapati bahawa AI menunjukkan kecenderungan yang sama terhadap pemikiran pantas dan intuitif seperti manusia, tetapi sering kali tidak mampu beralih kepada penaakulan analitik yang lebih teliti apabila diperlukan.
Melangkah ke hadapan, pasukan Mount Sinai merancang untuk menubuhkan "makmal jaminan AI" bagi menilai secara sistematik bagaimana model-model berbeza menangani kerumitan perubatan dunia sebenar. Para penyelidik menegaskan bahawa AI seharusnya melengkapi kepakaran klinikal dan bukannya menggantikannya, terutamanya dalam keputusan yang sensitif dari segi etika atau berisiko tinggi.