menu
close

Modelos de IA Reprovam em Testes Críticos de Ética Médica, Revela Estudo do Mount Sinai

Um estudo inovador do Mount Sinai e do Rabin Medical Center demonstra que até modelos avançados de IA, como o ChatGPT, cometem erros alarmantes ao lidar com cenários de ética médica. Os investigadores descobriram que os sistemas de IA tendem a recorrer a respostas familiares, mas incorrectas, quando confrontados com dilemas éticos ligeiramente modificados, chegando por vezes a ignorar completamente informações actualizadas. Estas conclusões levantam sérias preocupações quanto à fiabilidade da IA em decisões de saúde de alto risco, onde a nuance ética é fundamental.
Modelos de IA Reprovam em Testes Críticos de Ética Médica, Revela Estudo do Mount Sinai

Investigadores da Icahn School of Medicine no Mount Sinai identificaram uma falha perigosa na forma como a inteligência artificial lida com decisões de ética médica, revelando limitações que podem ter consequências graves para os cuidados aos doentes.

O estudo, publicado a 22 de julho de 2025 na NPJ Digital Medicine, testou vários modelos de linguagem de grande escala (LLMs) disponíveis comercialmente, incluindo o ChatGPT, em versões modificadas de dilemas éticos conhecidos. A equipa de investigação, liderada pelo Dr. Eyal Klang, Chefe de IA Generativa do Mount Sinai, e pelo Dr. Girish Nadkarni, Diretor do Departamento Windreich de IA e Saúde Humana, verificou que os sistemas de IA cometiam frequentemente erros básicos quando confrontados com cenários ligeiramente alterados.

Num exemplo revelador, os investigadores modificaram o clássico dilema do "Cirurgião" especificando explicitamente que o pai do rapaz era o cirurgião. Apesar desta informação clara, vários modelos de IA insistiram incorrectamente que o cirurgião teria de ser a mãe do rapaz, demonstrando como a IA pode apegar-se a padrões familiares mesmo quando estes são contrariados por novos dados.

Outro teste envolveu um cenário sobre pais religiosos e uma transfusão de sangue. Quando os investigadores alteraram o cenário para indicar que os pais já tinham consentido o procedimento, muitos modelos de IA continuaram a recomendar que se ignorasse uma recusa que já não existia.

"A IA pode ser muito poderosa e eficiente, mas o nosso estudo mostrou que pode recorrer à resposta mais familiar ou intuitiva, mesmo quando essa resposta ignora detalhes críticos", explicou o Dr. Klang. "Na área da saúde, onde as decisões têm frequentemente implicações éticas e clínicas sérias, ignorar essas nuances pode ter consequências reais para os doentes."

A investigação foi inspirada no livro "Thinking, Fast and Slow" de Daniel Kahneman, que contrasta reacções rápidas e intuitivas com raciocínios mais lentos e analíticos. As conclusões sugerem que os modelos de IA, tal como os humanos, podem ter dificuldade em alternar entre estes dois modos de pensamento.

Embora os investigadores sublinhem que a IA continua a ter aplicações valiosas na medicina, defendem a necessidade de uma supervisão humana cuidadosa, especialmente em situações que exigem sensibilidade ética ou julgamento apurado. "Estas ferramentas podem ser incrivelmente úteis, mas não são infalíveis", salientou o Dr. Nadkarni. "A IA deve ser usada como complemento para reforçar a experiência clínica, não como substituto, sobretudo quando se trata de decisões complexas ou de alto risco."

Source:

Latest News