menu
close

Modelos de IA Reprovam em Testes Básicos de Ética Médica, Revela Estudo do Mount Sinai

Um estudo inovador conduzido por investigadores do Mount Sinai e do Rabin Medical Center demonstra que mesmo os modelos de IA mais avançados, incluindo o ChatGPT, cometem erros surpreendentemente básicos ao lidar com cenários de ética médica. Publicada a 24 de julho de 2025 na npj Digital Medicine, a investigação revela que os sistemas de IA tendem a recorrer a respostas familiares mas incorretas quando confrontados com dilemas éticos ligeiramente alterados, levantando sérias preocupações sobre a sua fiabilidade em ambientes de saúde. As conclusões sublinham a necessidade crítica de supervisão humana na utilização da IA na tomada de decisões médicas.
Modelos de IA Reprovam em Testes Básicos de Ética Médica, Revela Estudo do Mount Sinai

Investigadores da Icahn School of Medicine no Mount Sinai e do Rabin Medical Center, em Israel, descobriram uma falha preocupante na forma como a inteligência artificial lida com decisões de ética médica, o que pode pôr em risco os cuidados aos doentes se não for corrigido.

O estudo, publicado a 24 de julho na npj Digital Medicine, avaliou vários grandes modelos de linguagem comerciais (LLMs), incluindo o ChatGPT, utilizando versões ligeiramente modificadas de dilemas éticos bem conhecidos. Os resultados revelaram que a IA recorre sistematicamente a respostas intuitivas mas incorretas, mesmo quando confrontada com informação claramente contraditória.

"A IA pode ser muito poderosa e eficiente, mas o nosso estudo mostrou que tende a optar pela resposta mais familiar ou intuitiva, mesmo quando essa resposta ignora detalhes críticos", explicou o coautor sénior Dr. Eyal Klang, Diretor de IA Generativa no Departamento Windreich de Inteligência Artificial e Saúde Humana do Mount Sinai. "Na área da saúde, onde as decisões têm sérias implicações éticas e clínicas, ignorar essas nuances pode ter consequências reais para os doentes."

Num teste revelador, os investigadores alteraram o clássico enigma do "Dilema do Cirurgião" especificando claramente que o pai do rapaz era o cirurgião, eliminando qualquer ambiguidade. Apesar desta clareza, vários modelos de IA insistiram incorretamente que o cirurgião teria de ser a mãe do rapaz, demonstrando como a IA pode agarrar-se a padrões familiares mesmo quando confrontada com nova informação contraditória.

De forma semelhante, perante um cenário envolvendo pais religiosos e uma transfusão de sangue, os modelos de IA recomendaram ultrapassar a recusa dos pais, mesmo quando o caso indicava claramente que os pais já tinham consentido o procedimento.

"Pequenas alterações em casos familiares expuseram pontos cegos que os clínicos não podem ignorar", salientou a autora principal Dra. Shelly Soffer, do Instituto de Hematologia do Rabin Medical Center. "Isto reforça porque é que a supervisão humana deve continuar a ser central quando utilizamos IA nos cuidados aos doentes."

A equipa de investigação, inspirada pelo livro de Daniel Kahneman "Pensar, Depressa e Devagar", concluiu que a IA apresenta a mesma tendência para um pensamento rápido e intuitivo que os humanos, mas frequentemente carece da capacidade de passar para um raciocínio mais analítico e deliberado quando necessário.

No futuro, a equipa do Mount Sinai pretende criar um "laboratório de garantia de IA" para avaliar sistematicamente como diferentes modelos lidam com a complexidade médica do mundo real. Os investigadores sublinham que a IA deve complementar a experiência clínica e não substituí-la, especialmente em decisões eticamente sensíveis ou de elevado risco.

Source:

Latest News