Natuklasan ng mga mananaliksik mula sa Icahn School of Medicine sa Mount Sinai at Rabin Medical Center sa Israel ang isang nakakabahalang kahinaan kung paano humahawak ang artificial intelligence ng mga desisyon sa medikal na etika—isang bagay na maaaring magdulot ng panganib sa kaligtasan ng pasyente kung hindi mabibigyang-pansin.
Ang pag-aaral, na inilathala noong Hulyo 24 sa npj Digital Medicine, ay sumuri sa ilang komersyal na large language models (LLMs), kabilang ang ChatGPT, gamit ang bahagyang binagong bersyon ng mga kilalang etikal na dilemma. Lumabas sa resulta na palaging bumabalik ang AI sa mga sagot na tila tama ngunit mali, kahit pa malinaw na may salungat na impormasyon sa sitwasyon.
"Maaaring napakalakas at episyente ng AI, ngunit ipinakita ng aming pag-aaral na madalas itong bumabalik sa pinaka-pamilyar o intuitive na sagot, kahit na hindi nito napapansin ang mahahalagang detalye," paliwanag ni Dr. Eyal Klang, co-senior author at Chief of Generative AI sa Windreich Department of Artificial Intelligence and Human Health ng Mount Sinai. "Sa pangangalagang pangkalusugan, kung saan may malalaking etikal at klinikal na implikasyon ang mga desisyon, ang hindi pagtingin sa mga detalyeng ito ay maaaring magdulot ng tunay na panganib sa mga pasyente."
Sa isang mahalagang pagsusulit, binago ng mga mananaliksik ang klasikong "Surgeon's Dilemma" puzzle sa pamamagitan ng tahasang pagsasabi na ang ama ng batang lalaki ay ang surgeon, upang alisin ang anumang kalituhan. Sa kabila ng kalinawang ito, ilang AI model pa rin ang mali ang sagot at iginiit na ang surgeon ay ang ina ng bata, na nagpapakita kung paano nakakapit ang AI sa mga pamilyar na pattern kahit na may bagong impormasyon na sumasalungat dito.
Gayundin, nang iniharap ang isang senaryo tungkol sa mga magulang na relihiyoso at isang blood transfusion, inirekomenda ng mga AI model na balewalain ang pagtanggi ng mga magulang, kahit malinaw na nakasaad sa sitwasyon na pumayag na ang mga magulang sa procedure.
"Ang simpleng pagbabago sa mga pamilyar na kaso ay nagbunyag ng mga blind spot na hindi dapat palampasin ng mga clinician," ayon kay Dr. Shelly Soffer, lead author mula sa Institute of Hematology ng Rabin Medical Center. "Pinapakita nito kung bakit kailangang manatiling sentro ang human oversight kapag ginagamit ang AI sa pangangalaga ng pasyente."
Ang research team, na na-inspire ng aklat ni Daniel Kahneman na "Thinking, Fast and Slow," ay natuklasan na nagpapakita rin ang AI ng hilig sa mabilis at intuitive na pag-iisip tulad ng tao, ngunit madalas itong kulang sa kakayahang lumipat sa mas malalim at masusing analytical reasoning kapag kinakailangan.
Sa hinaharap, balak ng Mount Sinai team na magtatag ng "AI assurance lab" upang sistematikong suriin kung paano humahawak ang iba't ibang modelo ng AI sa tunay na komplikasyon ng medisina. Binibigyang-diin ng mga mananaliksik na dapat maging katuwang lamang ng clinical expertise ang AI, at hindi ito dapat ipalit, lalo na sa mga etikal na sensitibo o high-stakes na desisyon.