I ricercatori della Icahn School of Medicine del Mount Sinai e del Rabin Medical Center in Israele hanno individuato una preoccupante lacuna nel modo in cui l’intelligenza artificiale affronta le decisioni etiche in medicina, mettendo potenzialmente a rischio la cura dei pazienti se non adeguatamente controllata.
Lo studio, pubblicato il 24 luglio su npj Digital Medicine, ha testato diversi modelli linguistici di grandi dimensioni (LLM) commerciali, tra cui ChatGPT, su versioni leggermente modificate di noti dilemmi etici. I risultati hanno rivelato che l’IA tendeva costantemente a fornire risposte intuitive ma errate, anche quando veniva presentata con informazioni chiaramente contraddittorie.
"L’IA può essere molto potente ed efficiente, ma il nostro studio ha dimostrato che può ricorrere alla risposta più familiare o intuitiva, anche quando questa trascura dettagli fondamentali", ha spiegato il co-autore senior Dr. Eyal Klang, Chief of Generative AI presso il Windreich Department of Artificial Intelligence and Human Health del Mount Sinai. "In ambito sanitario, dove le decisioni hanno importanti implicazioni etiche e cliniche, ignorare queste sfumature può avere conseguenze reali per i pazienti."
In uno dei test più significativi, i ricercatori hanno modificato il classico enigma del "Dilemma del Chirurgo" specificando chiaramente che il padre di un ragazzo era il chirurgo, eliminando ogni ambiguità. Nonostante questa chiarezza, diversi modelli di IA hanno continuato a sostenere erroneamente che il chirurgo dovesse essere la madre del ragazzo, dimostrando come l’IA possa aggrapparsi a schemi familiari anche quando smentiti da nuove informazioni.
Allo stesso modo, di fronte a uno scenario che coinvolgeva genitori religiosi e una trasfusione di sangue, i modelli di IA hanno raccomandato di ignorare il rifiuto dei genitori anche quando lo scenario specificava chiaramente che i genitori avevano già acconsentito alla procedura.
"Semplici modifiche a casi noti hanno messo in luce punti ciechi che i clinici non possono permettersi", ha osservato la prima autrice Dr.ssa Shelly Soffer dell’Istituto di Ematologia del Rabin Medical Center. "Questo sottolinea perché la supervisione umana deve rimanere centrale quando impieghiamo l’IA nella cura dei pazienti."
Il team di ricerca, ispirato dal libro di Daniel Kahneman "Pensieri lenti e veloci", ha riscontrato che l’IA mostra la stessa tendenza al pensiero rapido e intuitivo degli esseri umani, ma spesso manca della capacità di passare a un ragionamento più analitico e deliberato quando necessario.
Guardando al futuro, il team del Mount Sinai prevede di istituire un "laboratorio di garanzia dell’IA" per valutare sistematicamente come i diversi modelli affrontano la complessità reale della medicina. I ricercatori sottolineano che l’IA dovrebbe integrare l’expertise clinica, non sostituirla, soprattutto nelle decisioni eticamente sensibili o ad alto rischio.