Cercetătorii de la Icahn School of Medicine din cadrul Mount Sinai au identificat o deficiență periculoasă în modul în care inteligența artificială abordează deciziile de etică medicală, scoțând la iveală limitări care ar putea avea implicații grave pentru îngrijirea pacienților.
Studiul, publicat pe 22 iulie 2025 în NPJ Digital Medicine, a testat mai multe modele lingvistice de mari dimensiuni (LLM) disponibile comercial, inclusiv ChatGPT, pe versiuni modificate ale unor dileme etice binecunoscute. Echipa de cercetare, condusă de Dr. Eyal Klang, Chief of Generative AI la Mount Sinai, și Dr. Girish Nadkarni, președinte al Departamentului Windreich de AI și Sănătate Umană, a constatat că sistemele AI au făcut frecvent erori de bază atunci când au fost confruntate cu scenarii ușor modificate.
Într-un exemplu revelator, cercetătorii au modificat clasicul puzzle „Dilema Chirurgului” menționând explicit că tatăl unui băiat era chirurgul. În ciuda acestei informații clare, mai multe modele AI au susținut în mod eronat că chirurgul trebuie să fie mama băiatului, demonstrând cum AI poate rămâne blocată în tipare familiare chiar și atunci când acestea sunt contrazise de informații noi.
Un alt test a implicat un scenariu despre părinți religioși și o transfuzie de sânge. Când cercetătorii au modificat scenariul pentru a preciza că părinții consimțiseră deja la procedură, multe modele AI au continuat să recomande ignorarea unui refuz care nu mai exista.
„AI poate fi foarte puternică și eficientă, dar studiul nostru a arătat că poate reveni la răspunsul cel mai familiar sau intuitiv, chiar dacă acesta omite detalii esențiale”, a explicat Dr. Klang. „În domeniul sănătății, unde deciziile au adesea implicații etice și clinice serioase, ignorarea acestor nuanțe poate avea consecințe reale pentru pacienți.”
Cercetarea a fost inspirată de cartea lui Daniel Kahneman, „Thinking, Fast and Slow”, care contrastează reacțiile rapide, intuitive, cu raționamentul lent, analitic. Rezultatele sugerează că modelele AI, la fel ca oamenii, pot întâmpina dificultăți în a comuta între aceste două moduri de gândire.
Deși cercetătorii subliniază că AI are în continuare aplicații valoroase în medicină, ei accentuează necesitatea unei supravegheri umane atente, mai ales în situații ce necesită sensibilitate etică sau judecată nuanțată. „Aceste instrumente pot fi extrem de utile, dar nu sunt infailibile”, a notat Dr. Nadkarni. „AI este cel mai bine folosită ca un complement pentru a spori expertiza clinică, nu ca un substitut pentru aceasta, în special atunci când navighează decizii complexe sau cu miză ridicată.”