menu
close

Model AI Gagal Lulus Tes Etika Medis Dasar, Studi Mount Sinai Ungkap Fakta Mengejutkan

Sebuah studi terobosan dari peneliti Mount Sinai dan Rabin Medical Center menunjukkan bahwa bahkan model AI tercanggih, termasuk ChatGPT, melakukan kesalahan mendasar saat menghadapi skenario etika medis. Dipublikasikan pada 24 Juli 2025 di npj Digital Medicine, riset ini mengungkap bahwa sistem AI sering kali memberikan jawaban yang familiar namun keliru ketika dihadapkan pada dilema etika yang sedikit dimodifikasi, menimbulkan kekhawatiran serius tentang keandalannya di lingkungan layanan kesehatan. Temuan ini menegaskan pentingnya pengawasan manusia dalam penerapan AI pada pengambilan keputusan medis.
Model AI Gagal Lulus Tes Etika Medis Dasar, Studi Mount Sinai Ungkap Fakta Mengejutkan

Para peneliti di Icahn School of Medicine at Mount Sinai dan Rabin Medical Center di Israel menemukan kelemahan serius dalam cara kecerdasan buatan menangani keputusan etika medis, yang berpotensi membahayakan perawatan pasien jika tidak diawasi dengan baik.

Studi yang dipublikasikan pada 24 Juli di npj Digital Medicine ini menguji beberapa model bahasa besar (LLM) komersial, termasuk ChatGPT, pada versi yang sedikit dimodifikasi dari dilema etika yang sudah dikenal luas. Hasilnya menunjukkan bahwa AI secara konsisten memilih jawaban yang intuitif namun salah, bahkan ketika dihadapkan pada informasi yang jelas bertentangan.

"AI bisa sangat kuat dan efisien, tetapi studi kami menunjukkan bahwa AI cenderung memilih jawaban yang paling familiar atau intuitif, meskipun respons tersebut mengabaikan detail penting," jelas penulis senior Dr. Eyal Klang, Chief of Generative AI di Windreich Department of Artificial Intelligence and Human Health, Mount Sinai. "Dalam dunia kesehatan, di mana keputusan memiliki implikasi etis dan klinis yang serius, melewatkan nuansa tersebut bisa berdampak nyata bagi pasien."

Dalam salah satu pengujian, peneliti memodifikasi teka-teki klasik "Dilema Ahli Bedah" dengan secara eksplisit menyatakan bahwa ayah dari seorang anak laki-laki adalah sang ahli bedah, sehingga tidak ada ambiguitas. Namun, beberapa model AI tetap bersikeras bahwa ahli bedah tersebut pasti adalah ibu sang anak, menunjukkan bagaimana AI bisa tetap terjebak pada pola yang familiar meski sudah ada informasi baru yang bertentangan.

Demikian pula, ketika dihadapkan pada skenario tentang orang tua religius dan transfusi darah, model AI menyarankan untuk mengabaikan penolakan orang tua, padahal skenario tersebut sudah dengan jelas menyatakan bahwa orang tua telah menyetujui prosedur tersebut.

"Sedikit perubahan pada kasus yang sudah dikenal bisa membuka titik buta yang tidak boleh terjadi pada klinisi," ujar penulis utama Dr. Shelly Soffer dari Institute of Hematology, Rabin Medical Center. "Ini menegaskan mengapa pengawasan manusia harus tetap menjadi pusat saat kita menerapkan AI dalam perawatan pasien."

Tim peneliti, yang terinspirasi oleh buku Daniel Kahneman "Thinking, Fast and Slow", menemukan bahwa AI menunjukkan kecenderungan berpikir cepat dan intuitif seperti manusia, namun sering kali tidak mampu beralih ke penalaran analitis yang lebih mendalam ketika dibutuhkan.

Ke depan, tim Mount Sinai berencana mendirikan "laboratorium jaminan AI" untuk secara sistematis mengevaluasi bagaimana berbagai model menangani kompleksitas medis di dunia nyata. Para peneliti menegaskan bahwa AI seharusnya melengkapi keahlian klinis, bukan menggantikannya, terutama dalam keputusan yang sensitif secara etis atau berisiko tinggi.

Source:

Latest News