Výskumníci z Icahn School of Medicine pri Mount Sinai odhalili nebezpečný nedostatok v tom, ako umelá inteligencia pristupuje k rozhodnutiam týkajúcim sa lekárskej etiky, čo poukazuje na obmedzenia, ktoré môžu mať vážne dôsledky pre starostlivosť o pacientov.
Štúdia, publikovaná 22. júla 2025 v časopise NPJ Digital Medicine, testovala viaceré komerčne dostupné veľké jazykové modely (LLM), vrátane ChatGPT, na upravených verziách známych etických dilem. Výskumný tím pod vedením Dr. Eyala Klanga, šéfa generatívnej AI v Mount Sinai, a Dr. Girisha Nadkarniho, predsedu Windreich Department of AI and Human Health, zistil, že AI systémy často robili základné chyby, keď čelili mierne pozmeneným scenárom.
V jednom zaujímavom príklade výskumníci upravili klasickú hádanku „chirurgova dilema“ tým, že výslovne uviedli, že chlapcov otec je chirurg. Napriek tejto jasnej informácii viaceré AI modely nesprávne trvali na tom, že chirurgom musí byť chlapcova matka, čo ukazuje, ako sa AI môže držať známych vzorcov aj vtedy, keď sú v rozpore s novými údajmi.
Ďalší test sa týkal scenára s náboženskými rodičmi a transfúziou krvi. Keď výskumníci upravili situáciu tak, že rodičia už s procedúrou súhlasili, mnohé AI modely aj tak odporúčali prekonať odmietnutie, ktoré už neexistovalo.
„AI môže byť veľmi výkonná a efektívna, ale naša štúdia ukázala, že môže uprednostniť najznámejšiu alebo najintuitívnejšiu odpoveď, aj keď táto odpoveď prehliada kľúčové detaily,“ vysvetlil Dr. Klang. „V zdravotníctve, kde rozhodnutia často nesú vážne etické a klinické dôsledky, môže prehliadnutie týchto nuáns mať skutočné následky pre pacientov.“
Výskum bol inšpirovaný knihou Daniela Kahnemana „Myslenie, rýchle a pomalé“, ktorá kontrastuje rýchle, intuitívne reakcie s pomalším, analytickým uvažovaním. Zistenia naznačujú, že AI modely, podobne ako ľudia, môžu mať problém prepínať medzi týmito dvoma spôsobmi myslenia.
Hoci výskumníci zdôrazňujú, že AI má v medicíne stále cenné využitie, apelujú na potrebu dôkladného ľudského dohľadu, najmä v situáciách vyžadujúcich etickú citlivosť alebo nuansované posudzovanie. „Tieto nástroje môžu byť neuveriteľne užitočné, ale nie sú neomylné,“ poznamenal Dr. Nadkarni. „AI je najlepšie využívať ako doplnok na posilnenie klinickej expertízy, nie ako jej náhradu, najmä pri riešení zložitých alebo závažných rozhodnutí.“