Para peneliti di Icahn School of Medicine at Mount Sinai dan Rabin Medical Center di Israel menemukan kelemahan serius dalam cara kecerdasan buatan menangani keputusan etika medis, yang berpotensi membahayakan perawatan pasien jika tidak diawasi dengan baik.
Studi yang dipublikasikan pada 24 Juli di npj Digital Medicine ini menguji beberapa model bahasa besar (LLM) komersial, termasuk ChatGPT, pada versi yang sedikit dimodifikasi dari dilema etika yang sudah dikenal luas. Hasilnya menunjukkan bahwa AI secara konsisten memilih jawaban yang intuitif namun salah, bahkan ketika dihadapkan pada informasi yang jelas bertentangan.
"AI bisa sangat kuat dan efisien, tetapi studi kami menunjukkan bahwa AI cenderung memilih jawaban yang paling familiar atau intuitif, meskipun respons tersebut mengabaikan detail penting," jelas penulis senior Dr. Eyal Klang, Chief of Generative AI di Windreich Department of Artificial Intelligence and Human Health, Mount Sinai. "Dalam dunia kesehatan, di mana keputusan memiliki implikasi etis dan klinis yang serius, melewatkan nuansa tersebut bisa berdampak nyata bagi pasien."
Dalam salah satu pengujian, peneliti memodifikasi teka-teki klasik "Dilema Ahli Bedah" dengan secara eksplisit menyatakan bahwa ayah dari seorang anak laki-laki adalah sang ahli bedah, sehingga tidak ada ambiguitas. Namun, beberapa model AI tetap bersikeras bahwa ahli bedah tersebut pasti adalah ibu sang anak, menunjukkan bagaimana AI bisa tetap terjebak pada pola yang familiar meski sudah ada informasi baru yang bertentangan.
Demikian pula, ketika dihadapkan pada skenario tentang orang tua religius dan transfusi darah, model AI menyarankan untuk mengabaikan penolakan orang tua, padahal skenario tersebut sudah dengan jelas menyatakan bahwa orang tua telah menyetujui prosedur tersebut.
"Sedikit perubahan pada kasus yang sudah dikenal bisa membuka titik buta yang tidak boleh terjadi pada klinisi," ujar penulis utama Dr. Shelly Soffer dari Institute of Hematology, Rabin Medical Center. "Ini menegaskan mengapa pengawasan manusia harus tetap menjadi pusat saat kita menerapkan AI dalam perawatan pasien."
Tim peneliti, yang terinspirasi oleh buku Daniel Kahneman "Thinking, Fast and Slow", menemukan bahwa AI menunjukkan kecenderungan berpikir cepat dan intuitif seperti manusia, namun sering kali tidak mampu beralih ke penalaran analitis yang lebih mendalam ketika dibutuhkan.
Ke depan, tim Mount Sinai berencana mendirikan "laboratorium jaminan AI" untuk secara sistematis mengevaluasi bagaimana berbagai model menangani kompleksitas medis di dunia nyata. Para peneliti menegaskan bahwa AI seharusnya melengkapi keahlian klinis, bukan menggantikannya, terutama dalam keputusan yang sensitif secara etis atau berisiko tinggi.