menu
close

Bigo ang mga AI Model sa Batayang Pagsusulit sa Medikal na Etika, Ayon sa Pag-aaral ng Mount Sinai

Isang makabagong pag-aaral ng mga mananaliksik mula sa Mount Sinai at Rabin Medical Center ang nagpakita na kahit ang pinaka-advanced na AI models, kabilang ang ChatGPT, ay nakakagawa ng nakakagulat na mga pagkakamali sa pagharap sa mga sitwasyon ng medikal na etika. Inilathala noong Hulyo 24, 2025 sa npj Digital Medicine, isiniwalat ng pananaliksik na madalas bumabalik ang mga AI system sa pamilyar ngunit maling mga sagot kapag iniharap sa bahagyang binagong mga etikal na dilemma, na nagdudulot ng seryosong pag-aalala tungkol sa kanilang pagiging maaasahan sa mga setting ng pangangalagang pangkalusugan. Binibigyang-diin ng mga natuklasan ang mahalagang pangangailangan ng human oversight kapag ginagamit ang AI sa paggawa ng medikal na desisyon.
Bigo ang mga AI Model sa Batayang Pagsusulit sa Medikal na Etika, Ayon sa Pag-aaral ng Mount Sinai

Natuklasan ng mga mananaliksik mula sa Icahn School of Medicine sa Mount Sinai at Rabin Medical Center sa Israel ang isang nakakabahalang kahinaan kung paano humahawak ang artificial intelligence ng mga desisyon sa medikal na etika—isang bagay na maaaring magdulot ng panganib sa kaligtasan ng pasyente kung hindi mabibigyang-pansin.

Ang pag-aaral, na inilathala noong Hulyo 24 sa npj Digital Medicine, ay sumuri sa ilang komersyal na large language models (LLMs), kabilang ang ChatGPT, gamit ang bahagyang binagong bersyon ng mga kilalang etikal na dilemma. Lumabas sa resulta na palaging bumabalik ang AI sa mga sagot na tila tama ngunit mali, kahit pa malinaw na may salungat na impormasyon sa sitwasyon.

"Maaaring napakalakas at episyente ng AI, ngunit ipinakita ng aming pag-aaral na madalas itong bumabalik sa pinaka-pamilyar o intuitive na sagot, kahit na hindi nito napapansin ang mahahalagang detalye," paliwanag ni Dr. Eyal Klang, co-senior author at Chief of Generative AI sa Windreich Department of Artificial Intelligence and Human Health ng Mount Sinai. "Sa pangangalagang pangkalusugan, kung saan may malalaking etikal at klinikal na implikasyon ang mga desisyon, ang hindi pagtingin sa mga detalyeng ito ay maaaring magdulot ng tunay na panganib sa mga pasyente."

Sa isang mahalagang pagsusulit, binago ng mga mananaliksik ang klasikong "Surgeon's Dilemma" puzzle sa pamamagitan ng tahasang pagsasabi na ang ama ng batang lalaki ay ang surgeon, upang alisin ang anumang kalituhan. Sa kabila ng kalinawang ito, ilang AI model pa rin ang mali ang sagot at iginiit na ang surgeon ay ang ina ng bata, na nagpapakita kung paano nakakapit ang AI sa mga pamilyar na pattern kahit na may bagong impormasyon na sumasalungat dito.

Gayundin, nang iniharap ang isang senaryo tungkol sa mga magulang na relihiyoso at isang blood transfusion, inirekomenda ng mga AI model na balewalain ang pagtanggi ng mga magulang, kahit malinaw na nakasaad sa sitwasyon na pumayag na ang mga magulang sa procedure.

"Ang simpleng pagbabago sa mga pamilyar na kaso ay nagbunyag ng mga blind spot na hindi dapat palampasin ng mga clinician," ayon kay Dr. Shelly Soffer, lead author mula sa Institute of Hematology ng Rabin Medical Center. "Pinapakita nito kung bakit kailangang manatiling sentro ang human oversight kapag ginagamit ang AI sa pangangalaga ng pasyente."

Ang research team, na na-inspire ng aklat ni Daniel Kahneman na "Thinking, Fast and Slow," ay natuklasan na nagpapakita rin ang AI ng hilig sa mabilis at intuitive na pag-iisip tulad ng tao, ngunit madalas itong kulang sa kakayahang lumipat sa mas malalim at masusing analytical reasoning kapag kinakailangan.

Sa hinaharap, balak ng Mount Sinai team na magtatag ng "AI assurance lab" upang sistematikong suriin kung paano humahawak ang iba't ibang modelo ng AI sa tunay na komplikasyon ng medisina. Binibigyang-diin ng mga mananaliksik na dapat maging katuwang lamang ng clinical expertise ang AI, at hindi ito dapat ipalit, lalo na sa mga etikal na sensitibo o high-stakes na desisyon.

Source:

Latest News