menu
close

Modelele AI Eșuează la Teste de Etică Medicală de Bază, Arată un Studiu Mount Sinai

Un studiu revoluționar realizat de cercetători de la Mount Sinai și Rabin Medical Center arată că chiar și cele mai avansate modele AI, inclusiv ChatGPT, fac erori surprinzător de elementare atunci când trebuie să navigheze scenarii de etică medicală. Publicată pe 24 iulie 2025 în npj Digital Medicine, cercetarea relevă că sistemele AI tind să ofere răspunsuri familiare, dar incorecte, atunci când sunt confruntate cu dileme etice ușor modificate, ridicând îngrijorări serioase privind fiabilitatea lor în domeniul sănătății. Concluziile subliniază necesitatea esențială a supravegherii umane atunci când AI este folosită în luarea deciziilor medicale.
Modelele AI Eșuează la Teste de Etică Medicală de Bază, Arată un Studiu Mount Sinai

Cercetătorii de la Icahn School of Medicine din Mount Sinai și Rabin Medical Center din Israel au descoperit o problemă îngrijorătoare în modul în care inteligența artificială gestionează deciziile de etică medicală, ceea ce ar putea pune în pericol îngrijirea pacienților dacă nu este corectată.

Studiul, publicat pe 24 iulie în npj Digital Medicine, a testat mai multe modele comerciale de limbaj de mari dimensiuni (LLM), inclusiv ChatGPT, folosind versiuni ușor modificate ale unor dileme etice binecunoscute. Rezultatele au arătat că AI tinde să ofere constant răspunsuri intuitive, dar greșite, chiar și atunci când primește informații clar contradictorii.

„AI poate fi foarte puternică și eficientă, dar studiul nostru a arătat că poate reveni la cel mai familiar sau intuitiv răspuns, chiar dacă acesta ignoră detalii esențiale”, a explicat dr. Eyal Klang, co-autor principal și Chief of Generative AI în Windreich Department of Artificial Intelligence and Human Health de la Mount Sinai. „În domeniul sănătății, unde deciziile au implicații etice și clinice serioase, ignorarea acestor nuanțe poate avea consecințe reale pentru pacienți.”

Într-un test revelator, cercetătorii au modificat celebrul puzzle „Dilema Chirurgului” menționând explicit că tatăl băiatului era chirurgul, eliminând orice ambiguitate. În ciuda acestei clarități, mai multe modele AI au insistat în mod eronat că chirurgul trebuie să fie mama băiatului, demonstrând cum AI poate rămâne blocată în tipare familiare chiar și când acestea sunt contrazise de informații noi.

În mod similar, când li s-a prezentat un scenariu despre părinți religioși și o transfuzie de sânge, modelele AI au recomandat să fie ignorat refuzul părinților, chiar dacă scenariul preciza clar că aceștia consimțiseră deja la procedură.

„Modificări simple ale unor cazuri familiare au scos la iveală puncte oarbe pe care clinicienii nu și le pot permite”, a subliniat dr. Shelly Soffer, autor principal de la Institutul de Hematologie al Rabin Medical Center. „Acest lucru evidențiază de ce supravegherea umană trebuie să rămână centrală atunci când folosim AI în îngrijirea pacienților.”

Echipa de cercetare, inspirată de cartea lui Daniel Kahneman „Thinking, Fast and Slow”, a constatat că AI manifestă aceeași tendință spre gândire rapidă și intuitivă ca și oamenii, dar deseori îi lipsește capacitatea de a trece la o raționare analitică mai deliberată atunci când este necesar.

În continuare, echipa de la Mount Sinai plănuiește să înființeze un „laborator de asigurare AI” pentru a evalua sistematic modul în care diferite modele gestionează complexitatea medicală din viața reală. Cercetătorii subliniază că AI ar trebui să completeze expertiza clinică, nu să o înlocuiască, mai ales în deciziile cu miză etică sau clinică ridicată.

Source:

Latest News