menu
close

Modelos de IA falham em testes básicos de ética médica, revela estudo do Mount Sinai

Um estudo inovador conduzido por pesquisadores do Mount Sinai e do Rabin Medical Center mostra que até mesmo os modelos de IA mais avançados, incluindo o ChatGPT, cometem erros surpreendentemente básicos ao lidar com cenários de ética médica. Publicada em 24 de julho de 2025 na npj Digital Medicine, a pesquisa revela que os sistemas de IA frequentemente recorrem a respostas familiares, porém incorretas, quando confrontados com dilemas éticos levemente modificados, levantando sérias preocupações sobre sua confiabilidade em ambientes de saúde. Os resultados destacam a necessidade crítica de supervisão humana ao empregar IA em decisões médicas.
Modelos de IA falham em testes básicos de ética médica, revela estudo do Mount Sinai

Pesquisadores da Icahn School of Medicine at Mount Sinai e do Rabin Medical Center, em Israel, descobriram uma falha preocupante na forma como a inteligência artificial lida com decisões éticas na medicina, o que pode colocar o cuidado ao paciente em risco se não for corrigido.

O estudo, publicado em 24 de julho na npj Digital Medicine, testou diversos modelos comerciais de linguagem de grande porte (LLMs), incluindo o ChatGPT, em versões levemente modificadas de dilemas éticos conhecidos. Os resultados mostraram que a IA, de forma consistente, recorria a respostas intuitivas, porém incorretas, mesmo quando confrontada com informações claramente contraditórias.

"A IA pode ser muito poderosa e eficiente, mas nosso estudo mostrou que ela tende a recorrer à resposta mais familiar ou intuitiva, mesmo quando essa resposta ignora detalhes críticos", explicou o coautor sênior Dr. Eyal Klang, chefe de IA Generativa no Departamento Windreich de Inteligência Artificial e Saúde Humana do Mount Sinai. "Na área da saúde, onde as decisões têm sérias implicações éticas e clínicas, ignorar essas nuances pode ter consequências reais para os pacientes."

Em um teste revelador, os pesquisadores modificaram o clássico "Dilema do Cirurgião" ao afirmar explicitamente que o pai do menino era o cirurgião, eliminando qualquer ambiguidade. Apesar dessa clareza, vários modelos de IA ainda insistiram incorretamente que o cirurgião deveria ser a mãe do menino, demonstrando como a IA pode se apegar a padrões familiares mesmo quando contrariada por novas informações.

De forma semelhante, ao serem apresentados a um cenário envolvendo pais religiosos e uma transfusão de sangue, os modelos de IA recomendaram desconsiderar a recusa dos pais, mesmo quando o caso deixava claro que os pais já haviam consentido com o procedimento.

"Pequenas alterações em casos conhecidos expuseram pontos cegos que os clínicos não podem se dar ao luxo de ter", observou a autora principal Dra. Shelly Soffer, do Instituto de Hematologia do Rabin Medical Center. "Isso reforça por que a supervisão humana deve permanecer central ao empregarmos IA no cuidado ao paciente."

A equipe de pesquisa, inspirada pelo livro "Rápido e Devagar: Duas Formas de Pensar", de Daniel Kahneman, constatou que a IA apresenta a mesma tendência ao pensamento rápido e intuitivo que os humanos, mas frequentemente carece da capacidade de migrar para um raciocínio analítico mais deliberado quando necessário.

Para o futuro, a equipe do Mount Sinai planeja estabelecer um "laboratório de garantia de IA" para avaliar sistematicamente como diferentes modelos lidam com a complexidade do mundo real na medicina. Os pesquisadores enfatizam que a IA deve complementar a expertise clínica, e não substituí-la, especialmente em decisões eticamente sensíveis ou de alto risco.

Source:

Latest News