Investigadores da Icahn School of Medicine no Mount Sinai identificaram uma falha perigosa na forma como a inteligência artificial lida com decisões de ética médica, revelando limitações que podem ter consequências graves para os cuidados aos doentes.
O estudo, publicado a 22 de julho de 2025 na NPJ Digital Medicine, testou vários modelos de linguagem de grande escala (LLMs) disponíveis comercialmente, incluindo o ChatGPT, em versões modificadas de dilemas éticos conhecidos. A equipa de investigação, liderada pelo Dr. Eyal Klang, Chefe de IA Generativa do Mount Sinai, e pelo Dr. Girish Nadkarni, Diretor do Departamento Windreich de IA e Saúde Humana, verificou que os sistemas de IA cometiam frequentemente erros básicos quando confrontados com cenários ligeiramente alterados.
Num exemplo revelador, os investigadores modificaram o clássico dilema do "Cirurgião" especificando explicitamente que o pai do rapaz era o cirurgião. Apesar desta informação clara, vários modelos de IA insistiram incorrectamente que o cirurgião teria de ser a mãe do rapaz, demonstrando como a IA pode apegar-se a padrões familiares mesmo quando estes são contrariados por novos dados.
Outro teste envolveu um cenário sobre pais religiosos e uma transfusão de sangue. Quando os investigadores alteraram o cenário para indicar que os pais já tinham consentido o procedimento, muitos modelos de IA continuaram a recomendar que se ignorasse uma recusa que já não existia.
"A IA pode ser muito poderosa e eficiente, mas o nosso estudo mostrou que pode recorrer à resposta mais familiar ou intuitiva, mesmo quando essa resposta ignora detalhes críticos", explicou o Dr. Klang. "Na área da saúde, onde as decisões têm frequentemente implicações éticas e clínicas sérias, ignorar essas nuances pode ter consequências reais para os doentes."
A investigação foi inspirada no livro "Thinking, Fast and Slow" de Daniel Kahneman, que contrasta reacções rápidas e intuitivas com raciocínios mais lentos e analíticos. As conclusões sugerem que os modelos de IA, tal como os humanos, podem ter dificuldade em alternar entre estes dois modos de pensamento.
Embora os investigadores sublinhem que a IA continua a ter aplicações valiosas na medicina, defendem a necessidade de uma supervisão humana cuidadosa, especialmente em situações que exigem sensibilidade ética ou julgamento apurado. "Estas ferramentas podem ser incrivelmente úteis, mas não são infalíveis", salientou o Dr. Nadkarni. "A IA deve ser usada como complemento para reforçar a experiência clínica, não como substituto, sobretudo quando se trata de decisões complexas ou de alto risco."