Cercetătorii de la Icahn School of Medicine din Mount Sinai și Rabin Medical Center din Israel au descoperit o problemă îngrijorătoare în modul în care inteligența artificială gestionează deciziile de etică medicală, ceea ce ar putea pune în pericol îngrijirea pacienților dacă nu este corectată.
Studiul, publicat pe 24 iulie în npj Digital Medicine, a testat mai multe modele comerciale de limbaj de mari dimensiuni (LLM), inclusiv ChatGPT, folosind versiuni ușor modificate ale unor dileme etice binecunoscute. Rezultatele au arătat că AI tinde să ofere constant răspunsuri intuitive, dar greșite, chiar și atunci când primește informații clar contradictorii.
„AI poate fi foarte puternică și eficientă, dar studiul nostru a arătat că poate reveni la cel mai familiar sau intuitiv răspuns, chiar dacă acesta ignoră detalii esențiale”, a explicat dr. Eyal Klang, co-autor principal și Chief of Generative AI în Windreich Department of Artificial Intelligence and Human Health de la Mount Sinai. „În domeniul sănătății, unde deciziile au implicații etice și clinice serioase, ignorarea acestor nuanțe poate avea consecințe reale pentru pacienți.”
Într-un test revelator, cercetătorii au modificat celebrul puzzle „Dilema Chirurgului” menționând explicit că tatăl băiatului era chirurgul, eliminând orice ambiguitate. În ciuda acestei clarități, mai multe modele AI au insistat în mod eronat că chirurgul trebuie să fie mama băiatului, demonstrând cum AI poate rămâne blocată în tipare familiare chiar și când acestea sunt contrazise de informații noi.
În mod similar, când li s-a prezentat un scenariu despre părinți religioși și o transfuzie de sânge, modelele AI au recomandat să fie ignorat refuzul părinților, chiar dacă scenariul preciza clar că aceștia consimțiseră deja la procedură.
„Modificări simple ale unor cazuri familiare au scos la iveală puncte oarbe pe care clinicienii nu și le pot permite”, a subliniat dr. Shelly Soffer, autor principal de la Institutul de Hematologie al Rabin Medical Center. „Acest lucru evidențiază de ce supravegherea umană trebuie să rămână centrală atunci când folosim AI în îngrijirea pacienților.”
Echipa de cercetare, inspirată de cartea lui Daniel Kahneman „Thinking, Fast and Slow”, a constatat că AI manifestă aceeași tendință spre gândire rapidă și intuitivă ca și oamenii, dar deseori îi lipsește capacitatea de a trece la o raționare analitică mai deliberată atunci când este necesar.
În continuare, echipa de la Mount Sinai plănuiește să înființeze un „laborator de asigurare AI” pentru a evalua sistematic modul în care diferite modele gestionează complexitatea medicală din viața reală. Cercetătorii subliniază că AI ar trebui să completeze expertiza clinică, nu să o înlocuiască, mai ales în deciziile cu miză etică sau clinică ridicată.