menu
close

I modelli di IA falliscono i test critici di etica medica, rivela uno studio del Mount Sinai

Uno studio rivoluzionario condotto dal Mount Sinai e dal Rabin Medical Center dimostra che anche i modelli di IA più avanzati, come ChatGPT, commettono errori allarmanti nell’affrontare scenari di etica medica. I ricercatori hanno scoperto che i sistemi di intelligenza artificiale spesso ricorrono a risposte familiari ma errate quando vengono presentati dilemmi etici leggermente modificati, arrivando talvolta a ignorare completamente le nuove informazioni. Questi risultati sollevano serie preoccupazioni sull’affidabilità dell’IA nelle decisioni sanitarie ad alto rischio, dove la sensibilità etica è fondamentale.
I modelli di IA falliscono i test critici di etica medica, rivela uno studio del Mount Sinai

I ricercatori della Icahn School of Medicine del Mount Sinai hanno individuato una pericolosa lacuna nel modo in cui l’intelligenza artificiale affronta le decisioni etiche in ambito medico, rivelando limiti che potrebbero avere gravi ripercussioni sulla cura dei pazienti.

Lo studio, pubblicato il 22 luglio 2025 su NPJ Digital Medicine, ha testato diversi modelli linguistici di grandi dimensioni (LLM) disponibili in commercio, tra cui ChatGPT, su versioni modificate di noti dilemmi etici. Il team di ricerca, guidato dal dottor Eyal Klang, Chief of Generative AI al Mount Sinai, e dal dottor Girish Nadkarni, direttore del Windreich Department of AI and Human Health, ha scoperto che i sistemi di IA commettevano frequentemente errori di base quando si trovavano di fronte a scenari anche solo leggermente alterati.

In un esempio significativo, i ricercatori hanno modificato il classico enigma del “Dilemma del Chirurgo” specificando esplicitamente che il padre di un ragazzo era il chirurgo. Nonostante questa informazione chiara, diversi modelli di IA hanno insistito erroneamente sul fatto che il chirurgo dovesse essere la madre del ragazzo, dimostrando come l’IA possa aggrapparsi a schemi familiari anche quando sono smentiti da nuove informazioni.

Un altro test ha riguardato uno scenario su genitori religiosi e una trasfusione di sangue. Quando i ricercatori hanno modificato la situazione dichiarando che i genitori avevano già acconsentito alla procedura, molti modelli di IA hanno continuato a raccomandare di ignorare un rifiuto che, di fatto, non esisteva più.

“L’IA può essere molto potente ed efficiente, ma il nostro studio ha dimostrato che tende a dare la risposta più familiare o intuitiva, anche quando questa trascura dettagli fondamentali”, ha spiegato il dottor Klang. “In ambito sanitario, dove le decisioni comportano spesso importanti implicazioni etiche e cliniche, perdere queste sfumature può avere conseguenze reali per i pazienti.”

La ricerca si è ispirata al libro di Daniel Kahneman “Pensieri lenti e veloci”, che contrappone reazioni rapide e intuitive a un ragionamento più lento e analitico. I risultati suggeriscono che anche i modelli di IA, come gli esseri umani, possono avere difficoltà a passare da una modalità di pensiero all’altra.

Sebbene i ricercatori sottolineino che l’IA abbia ancora applicazioni preziose in medicina, evidenziano la necessità di una supervisione umana attenta, soprattutto nelle situazioni che richiedono sensibilità etica o giudizio sfumato. “Questi strumenti possono essere estremamente utili, ma non sono infallibili”, ha osservato il dottor Nadkarni. “L’IA va usata come complemento per rafforzare l’expertise clinica, non come suo sostituto, in particolare quando si affrontano decisioni complesse o ad alto rischio.”

Source:

Latest News