menu
close

Yapay Zekâ Modelleri Kritik Tıbbi Etik Testlerinde Başarısız: Mount Sinai Araştırması Ortaya Koydu

Mount Sinai ve Rabin Tıp Merkezi'nden çığır açıcı bir çalışma, ChatGPT gibi gelişmiş yapay zekâ modellerinin tıbbi etik senaryolarında endişe verici hatalar yaptığını gösteriyor. Araştırmacılar, yapay zekâ sistemlerinin, etik ikilemler biraz değiştirildiğinde genellikle tanıdık ama yanlış cevaplara yöneldiğini ve bazen güncellenmiş bilgileri tamamen göz ardı ettiğini keşfetti. Bu bulgular, etik hassasiyetin kritik olduğu yüksek riskli sağlık kararlarında yapay zekâya güvenilirlik konusunda ciddi endişeler doğuruyor.
Yapay Zekâ Modelleri Kritik Tıbbi Etik Testlerinde Başarısız: Mount Sinai Araştırması Ortaya Koydu

Icahn Mount Sinai Tıp Fakültesi'ndeki araştırmacılar, yapay zekânın tıbbi etik kararlarını nasıl ele aldığına dair tehlikeli bir kusur ortaya çıkardı ve bunun hasta bakımı üzerinde ciddi sonuçlar doğurabilecek sınırlamalarını gözler önüne serdi.

22 Temmuz 2025'te NPJ Digital Medicine'da yayımlanan çalışmada, aralarında ChatGPT'nin de bulunduğu ticari olarak erişilebilen çeşitli büyük dil modelleri (LLM'ler), bilinen etik ikilemlerin değiştirilmiş versiyonlarıyla test edildi. Mount Sinai Üretken Yapay Zekâ Bölüm Başkanı Dr. Eyal Klang ve Yapay Zekâ ve İnsan Sağlığı Windreich Bölümü Başkanı Dr. Girish Nadkarni liderliğindeki ekip, yapay zekâ sistemlerinin senaryolar hafifçe değiştirildiğinde sıklıkla temel hatalar yaptığını buldu.

Çarpıcı örneklerden birinde, araştırmacılar klasik "Cerrahın İkilemi" bulmacasını, bir çocuğun babasının cerrah olduğunu açıkça belirterek değiştirdi. Bu net bilgiye rağmen, birçok yapay zekâ modeli cerrahın çocuğun annesi olması gerektiğinde ısrar etti; bu da yapay zekânın, yeni bilgilerle çelişse bile tanıdık kalıplara tutunabileceğini gösterdi.

Bir diğer testte ise, dini inançları olan ebeveynler ve kan transfüzyonu senaryosu ele alındı. Araştırmacılar, ebeveynlerin prosedüre zaten onay verdiğini belirtecek şekilde senaryoyu değiştirdiğinde bile, birçok yapay zekâ modeli artık var olmayan bir reddi geçersiz kılmayı önermeye devam etti.

"Yapay zekâ çok güçlü ve verimli olabilir, fakat çalışmamız, kritik detayları göz ardı etse bile en tanıdık veya sezgisel cevaba yönelebileceğini gösterdi," diyor Dr. Klang. "Sağlık alanında, kararlar genellikle ciddi etik ve klinik sonuçlar doğurabileceğinden, bu nüansların atlanması hastalar için gerçek sonuçlar doğurabilir."

Araştırma, Daniel Kahneman'ın "Hızlı ve Yavaş Düşünme" adlı kitabından ilham aldı; kitap, hızlı, sezgisel tepkiler ile daha yavaş, analitik muhakemeyi karşılaştırıyor. Bulgular, yapay zekâ modellerinin de insanlar gibi bu iki düşünme modu arasında geçiş yapmakta zorlanabileceğini gösteriyor.

Araştırmacılar, yapay zekânın tıpta hâlâ değerli uygulamaları olduğunu vurgulasa da, özellikle etik hassasiyet veya nüanslı yargı gerektiren durumlarda dikkatli insan denetiminin şart olduğunun altını çiziyor. "Bu araçlar son derece faydalı olabilir, ancak kusursuz değiller," diyor Dr. Nadkarni. "Yapay zekâ, özellikle karmaşık veya yüksek riskli kararlarda, klinik uzmanlığı tamamlayıcı olarak kullanılmalı, onun yerine geçmemelidir."

Source:

Latest News