Výskumníci z Icahn School of Medicine pri Mount Sinai a Rabin Medical Center v Izraeli odhalili znepokojujúci nedostatok v tom, ako umelá inteligencia rieši rozhodnutia týkajúce sa lekárskej etiky, čo môže v prípade zanedbania ohroziť starostlivosť o pacientov.
Štúdia publikovaná 24. júla v npj Digital Medicine testovala niekoľko komerčných veľkých jazykových modelov (LLM), vrátane ChatGPT, na mierne upravených verziách známych etických dilem. Výsledky ukázali, že AI konzistentne uprednostňovala intuitívne, ale nesprávne odpovede, aj keď boli predložené jasné protichodné informácie.
„AI môže byť veľmi výkonná a efektívna, no naša štúdia ukázala, že má tendenciu vyberať najznámejšiu alebo najintuitívnejšiu odpoveď, aj keď táto prehliada zásadné detaily,“ vysvetľuje spoluautor Dr. Eyal Klang, šéf generatívnej AI na Windreich Department of Artificial Intelligence and Human Health v Mount Sinai. „V zdravotníctve, kde rozhodnutia nesú vážne etické a klinické dôsledky, môže prehliadnutie týchto nuáns mať reálne následky pre pacientov.“
V jednom z testov výskumníci upravili klasickú hádanku „Chirurgova dilema“ tak, že výslovne uviedli, že chlapcov otec je chirurg, čím odstránili akúkoľvek nejasnosť. Napriek tejto jasnosti viaceré AI modely stále nesprávne tvrdili, že chirurgom musí byť chlapcova matka, čo ukazuje, ako sa AI dokáže držať známych vzorcov aj v rozpore s novými informáciami.
Podobne, keď boli modely konfrontované so scenárom o náboženských rodičoch a transfúzii krvi, odporúčali prekonať rodičovský nesúhlas, aj keď scenár jasne uvádzal, že rodičia už so zákrokom súhlasili.
„Jednoduché úpravy známych prípadov odhalili slepé miesta, ktoré si klinici nemôžu dovoliť prehliadnuť,“ poznamenala hlavná autorka Dr. Shelly Soffer z Inštitútu hematológie Rabin Medical Center. „To podčiarkuje, prečo musí zostať ľudský dohľad kľúčový pri nasadzovaní AI do starostlivosti o pacientov.“
Výskumný tím, inšpirovaný knihou Daniela Kahnemana „Myslenie, rýchle a pomalé“, zistil, že AI vykazuje rovnakú tendenciu k rýchlemu, intuitívnemu mysleniu ako ľudia, no často jej chýba schopnosť prepnúť na premyslenejšie analytické uvažovanie, keď je to potrebné.
Do budúcnosti plánuje tím Mount Sinai založiť „AI assurance lab“, ktorý bude systematicky hodnotiť, ako rôzne modely zvládajú komplexnosť reálneho medicínskeho prostredia. Výskumníci zdôrazňujú, že AI by mala dopĺňať klinickú expertízu, nie ju nahrádzať, najmä pri eticky citlivých alebo vysoko rizikových rozhodnutiach.