Pesquisadores da Icahn School of Medicine at Mount Sinai e do Rabin Medical Center, em Israel, descobriram uma falha preocupante na forma como a inteligência artificial lida com decisões éticas na medicina, o que pode colocar o cuidado ao paciente em risco se não for corrigido.
O estudo, publicado em 24 de julho na npj Digital Medicine, testou diversos modelos comerciais de linguagem de grande porte (LLMs), incluindo o ChatGPT, em versões levemente modificadas de dilemas éticos conhecidos. Os resultados mostraram que a IA, de forma consistente, recorria a respostas intuitivas, porém incorretas, mesmo quando confrontada com informações claramente contraditórias.
"A IA pode ser muito poderosa e eficiente, mas nosso estudo mostrou que ela tende a recorrer à resposta mais familiar ou intuitiva, mesmo quando essa resposta ignora detalhes críticos", explicou o coautor sênior Dr. Eyal Klang, chefe de IA Generativa no Departamento Windreich de Inteligência Artificial e Saúde Humana do Mount Sinai. "Na área da saúde, onde as decisões têm sérias implicações éticas e clínicas, ignorar essas nuances pode ter consequências reais para os pacientes."
Em um teste revelador, os pesquisadores modificaram o clássico "Dilema do Cirurgião" ao afirmar explicitamente que o pai do menino era o cirurgião, eliminando qualquer ambiguidade. Apesar dessa clareza, vários modelos de IA ainda insistiram incorretamente que o cirurgião deveria ser a mãe do menino, demonstrando como a IA pode se apegar a padrões familiares mesmo quando contrariada por novas informações.
De forma semelhante, ao serem apresentados a um cenário envolvendo pais religiosos e uma transfusão de sangue, os modelos de IA recomendaram desconsiderar a recusa dos pais, mesmo quando o caso deixava claro que os pais já haviam consentido com o procedimento.
"Pequenas alterações em casos conhecidos expuseram pontos cegos que os clínicos não podem se dar ao luxo de ter", observou a autora principal Dra. Shelly Soffer, do Instituto de Hematologia do Rabin Medical Center. "Isso reforça por que a supervisão humana deve permanecer central ao empregarmos IA no cuidado ao paciente."
A equipe de pesquisa, inspirada pelo livro "Rápido e Devagar: Duas Formas de Pensar", de Daniel Kahneman, constatou que a IA apresenta a mesma tendência ao pensamento rápido e intuitivo que os humanos, mas frequentemente carece da capacidade de migrar para um raciocínio analítico mais deliberado quando necessário.
Para o futuro, a equipe do Mount Sinai planeja estabelecer um "laboratório de garantia de IA" para avaliar sistematicamente como diferentes modelos lidam com a complexidade do mundo real na medicina. Os pesquisadores enfatizam que a IA deve complementar a expertise clínica, e não substituí-la, especialmente em decisões eticamente sensíveis ou de alto risco.