Mount Sinai Icahn Tıp Fakültesi ve İsrail'deki Rabin Tıp Merkezi'nden araştırmacılar, yapay zekânın tıbbi etik kararlarını nasıl ele aldığına dair endişe verici bir kusur keşfetti; bu durum, kontrol edilmezse hasta bakımını riske atabilir.
24 Temmuz'da npj Digital Medicine'da yayımlanan çalışmada, ChatGPT dahil olmak üzere çeşitli ticari büyük dil modelleri (LLM'ler), bilinen etik ikilemlerin hafifçe değiştirilmiş versiyonlarında test edildi. Sonuçlar, yapay zekânın, açıkça çelişkili bilgiler sunulduğunda bile, sezgisel ama yanlış cevaplara tutarlı şekilde yöneldiğini ortaya koydu.
"Yapay zekâ çok güçlü ve verimli olabilir, ancak çalışmamız, kritik ayrıntıları göz ardı etse bile en tanıdık veya sezgisel cevaba yönelebileceğini gösterdi," diyor Mount Sinai Yapay Zekâ ve İnsan Sağlığı Windreich Bölümü'nde Üretken Yapay Zekâ Başkanı ve çalışmanın kıdemli yazarı Dr. Eyal Klang. "Sağlık hizmetlerinde, kararların ciddi etik ve klinik sonuçları olduğu durumlarda bu nüansların kaçırılması hastalar için gerçek sonuçlar doğurabilir."
Çarpıcı bir testte, araştırmacılar klasik "Cerrahın İkilemi" bulmacasını, çocuğun babasının cerrah olduğunu açıkça belirterek değiştirdi ve herhangi bir belirsizliği ortadan kaldırdı. Bu açıklığa rağmen, birkaç yapay zekâ modeli hâlâ cerrahın çocuğun annesi olması gerektiğinde ısrar etti; bu da yapay zekânın, yeni bilgilerle çelişse bile tanıdık kalıplara nasıl tutunabildiğini gösterdi.
Benzer şekilde, dini inançlara sahip ebeveynler ve kan nakliyle ilgili bir senaryoda, yapay zekâ modelleri, ebeveynlerin prosedüre zaten onay verdiği açıkça belirtilmiş olmasına rağmen, ebeveynlerin reddinin göz ardı edilmesini önerdi.
Rabin Tıp Merkezi Hematoloji Enstitüsü'nden başyazar Dr. Shelly Soffer, "Tanıdık vakalara yapılan basit değişiklikler, klinisyenlerin göze alamayacağı kör noktaları ortaya çıkardı," dedi. "Bu, hasta bakımında yapay zekâyı devreye alırken insan denetiminin neden merkezi kalması gerektiğini vurguluyor."
Araştırma ekibi, Daniel Kahneman'ın "Hızlı ve Yavaş Düşünme" kitabından ilham alarak, yapay zekânın insanlar gibi hızlı, sezgisel düşünmeye eğilimli olduğunu, ancak gerektiğinde daha bilinçli ve analitik muhakemeye geçme yeteneğinin çoğu zaman eksik olduğunu buldu.
Mount Sinai ekibi, bundan sonraki süreçte farklı modellerin gerçek dünyadaki tıbbi karmaşıklığı nasıl ele aldığını sistematik olarak değerlendirmek için bir "yapay zekâ güvence laboratuvarı" kurmayı planlıyor. Araştırmacılar, özellikle etik açıdan hassas veya yüksek riskli kararlarda, yapay zekânın klinik uzmanlığın yerini almaktan ziyade onu tamamlaması gerektiğinin altını çiziyor.