Natuklasan ng mga mananaliksik mula sa Icahn School of Medicine sa Mount Sinai ang isang mapanganib na kahinaan sa paraan ng paghawak ng artificial intelligence sa mga desisyong may kinalaman sa medikal na etika, na nagpapakita ng mga limitasyon na maaaring magdulot ng seryosong epekto sa pangangalaga ng pasyente.
Ang pag-aaral, na inilathala noong Hulyo 22, 2025 sa NPJ Digital Medicine, ay sumubok sa ilang komersyal na large language models (LLMs) kabilang ang ChatGPT gamit ang binagong bersyon ng mga kilalang etikal na problema. Pinangunahan nina Dr. Eyal Klang, Chief of Generative AI sa Mount Sinai, at Dr. Girish Nadkarni, Chair ng Windreich Department of AI and Human Health, natuklasan ng grupo na madalas magkamali ang mga AI system kapag hinarap sa bahagyang binagong mga sitwasyon.
Sa isang kapansin-pansing halimbawa, binago ng mga mananaliksik ang klasikong "Surgeon's Dilemma" sa pamamagitan ng tahasang pagsasabi na ang ama ng bata ay ang siruhano. Sa kabila ng malinaw na impormasyong ito, ilang AI model ang mali pa ring iginiit na ang siruhano ay ang ina ng bata, na nagpapakita kung paano nananatili ang AI sa mga pamilyar na pattern kahit salungat na ito sa bagong datos.
Sa isa pang pagsubok, inilahad ang isang senaryo tungkol sa mga magulang na relihiyoso at isang blood transfusion. Nang baguhin ng mga mananaliksik ang sitwasyon upang sabihing pumayag na ang mga magulang sa procedure, marami pa ring AI model ang nagrekomenda na balewalain ang pagtanggi na wala na naman sa sitwasyon.
"Napakalakas at episyente ng AI, ngunit ipinakita ng aming pag-aaral na maaari itong bumalik sa pinaka-pamilyar o intuitive na sagot, kahit na hindi nito napapansin ang mahahalagang detalye," paliwanag ni Dr. Klang. "Sa healthcare, kung saan madalas may seryosong etikal at klinikal na implikasyon ang mga desisyon, ang hindi pagtingin sa mga detalyeng ito ay maaaring magdulot ng tunay na panganib sa mga pasyente."
Ang pananaliksik ay hango sa aklat ni Daniel Kahneman na "Thinking, Fast and Slow," na naghahambing ng mabilis, intuitive na reaksyon at mabagal, analitikal na pag-iisip. Ipinapahiwatig ng mga natuklasan na, tulad ng tao, nahihirapan din ang AI model na lumipat sa pagitan ng dalawang paraan ng pag-iisip na ito.
Bagama't binibigyang-diin ng mga mananaliksik na may mahalagang papel pa rin ang AI sa medisina, iginiit nila ang pangangailangan ng maingat na paggabay ng tao, lalo na sa mga sitwasyong nangangailangan ng etikal na sensibilidad o masusing paghusga. "Napakalaking tulong ng mga tool na ito, ngunit hindi sila perpekto," ayon kay Dr. Nadkarni. "Pinakamainam gamitin ang AI bilang katuwang upang mapahusay ang klinikal na kaalaman, hindi bilang kapalit nito, lalo na sa pagharap sa masalimuot o kritikal na desisyon."