Naukowcy z Icahn School of Medicine przy Mount Sinai ujawnili niebezpieczną wadę w sposobie, w jaki sztuczna inteligencja podejmuje decyzje etyczne w medycynie, wskazując na ograniczenia, które mogą mieć poważne konsekwencje dla opieki nad pacjentem.
Badanie, opublikowane 22 lipca 2025 roku w NPJ Digital Medicine, przetestowało kilka komercyjnie dostępnych dużych modeli językowych (LLM), w tym ChatGPT, na zmodyfikowanych wersjach znanych dylematów etycznych. Zespół badawczy pod kierownictwem dr. Eyala Klanga, szefa ds. generatywnej AI w Mount Sinai, oraz dr. Girisha Nadkarni, przewodniczącego Windreich Department of AI and Human Health, odkrył, że systemy AI często popełniają podstawowe błędy, gdy stają przed lekko zmienionymi scenariuszami.
W jednym z wymownych przykładów naukowcy zmodyfikowali klasyczną zagadkę „Dylemat chirurga”, wyraźnie zaznaczając, że ojciec chłopca jest chirurgiem. Pomimo tej jasnej informacji, kilka modeli AI błędnie upierało się, że chirurgiem musi być matka chłopca, pokazując, jak AI potrafi kurczowo trzymać się znanych schematów, nawet gdy są one sprzeczne z nowymi danymi.
Inny test dotyczył scenariusza związanego z religijnymi rodzicami i transfuzją krwi. Gdy badacze zmienili sytuację, podając, że rodzice już wyrazili zgodę na zabieg, wiele modeli AI nadal zalecało przeforsowanie transfuzji mimo braku sprzeciwu.
„AI może być bardzo potężna i wydajna, ale nasze badanie pokazało, że może domyślnie wybierać najbardziej znaną lub intuicyjną odpowiedź, nawet jeśli pomija ona kluczowe szczegóły” — wyjaśnia dr Klang. „W opiece zdrowotnej, gdzie decyzje często mają poważne implikacje etyczne i kliniczne, pominięcie tych niuansów może mieć realne konsekwencje dla pacjentów.”
Inspiracją do badań była książka Daniela Kahnemana „Pułapki myślenia. O myśleniu szybkim i wolnym”, która zestawia szybkie, intuicyjne reakcje z wolniejszym, analitycznym rozumowaniem. Wyniki sugerują, że modele AI, podobnie jak ludzie, mogą mieć trudności z przełączaniem się między tymi dwoma trybami myślenia.
Choć naukowcy podkreślają, że AI wciąż ma cenne zastosowania w medycynie, zwracają uwagę na konieczność przemyślanej kontroli ze strony człowieka, szczególnie w sytuacjach wymagających wrażliwości etycznej lub złożonej oceny. „Te narzędzia mogą być niezwykle pomocne, ale nie są nieomylne” — zauważa dr Nadkarni. „AI najlepiej sprawdza się jako uzupełnienie wiedzy klinicznej, a nie jej zamiennik, zwłaszcza przy podejmowaniu złożonych lub obarczonych dużą odpowiedzialnością decyzji.”