menu
close

Yapay Zekâ Modelleri Temel Tıbbi Etik Testlerinde Başarısız: Mount Sinai Araştırması Ortaya Koydu

Mount Sinai ve Rabin Tıp Merkezi araştırmacılarının çığır açan çalışması, ChatGPT dahil en gelişmiş yapay zekâ modellerinin, tıbbi etik senaryolarında şaşırtıcı derecede temel hatalar yaptığını gösteriyor. 24 Temmuz 2025'te npj Digital Medicine'da yayımlanan araştırma, yapay zekâ sistemlerinin, etik ikilemler biraz değiştirildiğinde bile tanıdık ama yanlış cevaplara yöneldiğini ortaya koyuyor. Bu bulgular, sağlık hizmetlerinde yapay zekâya güvenilirlik açısından ciddi endişeler doğururken, tıbbi karar alma süreçlerinde insan denetiminin kritik önemini vurguluyor.
Yapay Zekâ Modelleri Temel Tıbbi Etik Testlerinde Başarısız: Mount Sinai Araştırması Ortaya Koydu

Mount Sinai Icahn Tıp Fakültesi ve İsrail'deki Rabin Tıp Merkezi'nden araştırmacılar, yapay zekânın tıbbi etik kararlarını nasıl ele aldığına dair endişe verici bir kusur keşfetti; bu durum, kontrol edilmezse hasta bakımını riske atabilir.

24 Temmuz'da npj Digital Medicine'da yayımlanan çalışmada, ChatGPT dahil olmak üzere çeşitli ticari büyük dil modelleri (LLM'ler), bilinen etik ikilemlerin hafifçe değiştirilmiş versiyonlarında test edildi. Sonuçlar, yapay zekânın, açıkça çelişkili bilgiler sunulduğunda bile, sezgisel ama yanlış cevaplara tutarlı şekilde yöneldiğini ortaya koydu.

"Yapay zekâ çok güçlü ve verimli olabilir, ancak çalışmamız, kritik ayrıntıları göz ardı etse bile en tanıdık veya sezgisel cevaba yönelebileceğini gösterdi," diyor Mount Sinai Yapay Zekâ ve İnsan Sağlığı Windreich Bölümü'nde Üretken Yapay Zekâ Başkanı ve çalışmanın kıdemli yazarı Dr. Eyal Klang. "Sağlık hizmetlerinde, kararların ciddi etik ve klinik sonuçları olduğu durumlarda bu nüansların kaçırılması hastalar için gerçek sonuçlar doğurabilir."

Çarpıcı bir testte, araştırmacılar klasik "Cerrahın İkilemi" bulmacasını, çocuğun babasının cerrah olduğunu açıkça belirterek değiştirdi ve herhangi bir belirsizliği ortadan kaldırdı. Bu açıklığa rağmen, birkaç yapay zekâ modeli hâlâ cerrahın çocuğun annesi olması gerektiğinde ısrar etti; bu da yapay zekânın, yeni bilgilerle çelişse bile tanıdık kalıplara nasıl tutunabildiğini gösterdi.

Benzer şekilde, dini inançlara sahip ebeveynler ve kan nakliyle ilgili bir senaryoda, yapay zekâ modelleri, ebeveynlerin prosedüre zaten onay verdiği açıkça belirtilmiş olmasına rağmen, ebeveynlerin reddinin göz ardı edilmesini önerdi.

Rabin Tıp Merkezi Hematoloji Enstitüsü'nden başyazar Dr. Shelly Soffer, "Tanıdık vakalara yapılan basit değişiklikler, klinisyenlerin göze alamayacağı kör noktaları ortaya çıkardı," dedi. "Bu, hasta bakımında yapay zekâyı devreye alırken insan denetiminin neden merkezi kalması gerektiğini vurguluyor."

Araştırma ekibi, Daniel Kahneman'ın "Hızlı ve Yavaş Düşünme" kitabından ilham alarak, yapay zekânın insanlar gibi hızlı, sezgisel düşünmeye eğilimli olduğunu, ancak gerektiğinde daha bilinçli ve analitik muhakemeye geçme yeteneğinin çoğu zaman eksik olduğunu buldu.

Mount Sinai ekibi, bundan sonraki süreçte farklı modellerin gerçek dünyadaki tıbbi karmaşıklığı nasıl ele aldığını sistematik olarak değerlendirmek için bir "yapay zekâ güvence laboratuvarı" kurmayı planlıyor. Araştırmacılar, özellikle etik açıdan hassas veya yüksek riskli kararlarda, yapay zekânın klinik uzmanlığın yerini almaktan ziyade onu tamamlaması gerektiğinin altını çiziyor.

Source:

Latest News