Investigadores da Icahn School of Medicine no Mount Sinai e do Rabin Medical Center, em Israel, descobriram uma falha preocupante na forma como a inteligência artificial lida com decisões de ética médica, o que pode pôr em risco os cuidados aos doentes se não for corrigido.
O estudo, publicado a 24 de julho na npj Digital Medicine, avaliou vários grandes modelos de linguagem comerciais (LLMs), incluindo o ChatGPT, utilizando versões ligeiramente modificadas de dilemas éticos bem conhecidos. Os resultados revelaram que a IA recorre sistematicamente a respostas intuitivas mas incorretas, mesmo quando confrontada com informação claramente contraditória.
"A IA pode ser muito poderosa e eficiente, mas o nosso estudo mostrou que tende a optar pela resposta mais familiar ou intuitiva, mesmo quando essa resposta ignora detalhes críticos", explicou o coautor sénior Dr. Eyal Klang, Diretor de IA Generativa no Departamento Windreich de Inteligência Artificial e Saúde Humana do Mount Sinai. "Na área da saúde, onde as decisões têm sérias implicações éticas e clínicas, ignorar essas nuances pode ter consequências reais para os doentes."
Num teste revelador, os investigadores alteraram o clássico enigma do "Dilema do Cirurgião" especificando claramente que o pai do rapaz era o cirurgião, eliminando qualquer ambiguidade. Apesar desta clareza, vários modelos de IA insistiram incorretamente que o cirurgião teria de ser a mãe do rapaz, demonstrando como a IA pode agarrar-se a padrões familiares mesmo quando confrontada com nova informação contraditória.
De forma semelhante, perante um cenário envolvendo pais religiosos e uma transfusão de sangue, os modelos de IA recomendaram ultrapassar a recusa dos pais, mesmo quando o caso indicava claramente que os pais já tinham consentido o procedimento.
"Pequenas alterações em casos familiares expuseram pontos cegos que os clínicos não podem ignorar", salientou a autora principal Dra. Shelly Soffer, do Instituto de Hematologia do Rabin Medical Center. "Isto reforça porque é que a supervisão humana deve continuar a ser central quando utilizamos IA nos cuidados aos doentes."
A equipa de investigação, inspirada pelo livro de Daniel Kahneman "Pensar, Depressa e Devagar", concluiu que a IA apresenta a mesma tendência para um pensamento rápido e intuitivo que os humanos, mas frequentemente carece da capacidade de passar para um raciocínio mais analítico e deliberado quando necessário.
No futuro, a equipa do Mount Sinai pretende criar um "laboratório de garantia de IA" para avaliar sistematicamente como diferentes modelos lidam com a complexidade médica do mundo real. Os investigadores sublinham que a IA deve complementar a experiência clínica e não substituí-la, especialmente em decisões eticamente sensíveis ou de elevado risco.