A Google DeepMind alcançou um avanço significativo na inteligência artificial médica com o seu sistema melhorado Articulate Medical Intelligence Explorer (AMIE), que agora consegue analisar dados médicos visuais juntamente com conversas baseadas em texto.
A versão atualizada do AMIE, alimentada pelo modelo Gemini 2.0 Flash da Google, consegue interpretar vários tipos de imagens médicas, incluindo fotografias dermatológicas, eletrocardiogramas e documentos laboratoriais durante consultas em tempo real. Esta capacidade multimodal permite à IA solicitar inputs visuais a meio da conversa, analisá-los e integrar as conclusões no seu processo de diagnóstico.
Numa avaliação abrangente envolvendo 105 consultas simuladas, o AMIE demonstrou um desempenho superior ao de médicos de clínica geral certificados. Especialistas médicos que analisaram as consultas atribuíram ao AMIE classificações mais elevadas em vários critérios essenciais, incluindo qualidade da interpretação de imagens, precisão diagnóstica e elaboração de planos de tratamento.
"O estado interno do AMIE capta o seu conhecimento sobre o paciente num determinado momento da conversa", explicaram os investigadores da Google DeepMind no anúncio de maio de 2025. Isto permite ao sistema orientar as suas perguntas e respostas como um clínico experiente a recolher evidências.
Os atores que desempenharam o papel de pacientes no estudo avaliaram frequentemente as interações com o AMIE como superiores às com médicos humanos, tendo um deles referido que a explicação dada pelo AMIE sobre uma condição dermatológica foi mais clara do que a que recebeu numa recente consulta de telemedicina.
Este desenvolvimento surge numa altura em que o relatório AI Index 2025 da Universidade de Stanford destaca avanços sem precedentes nas aplicações de IA em saúde. O relatório assinala que o número de dispositivos médicos com IA aprovados pela FDA disparou de apenas seis em 2015 para 223 em 2023.
Apesar das capacidades impressionantes do AMIE, a Google sublinha que o sistema permanece experimental. Os testes em contexto real estão agora a começar através de uma parceria de investigação com o Beth Israel Deaconess Medical Center, onde o AMIE será avaliado em ambientes clínicos reais com o consentimento dos pacientes.
"A integração de perceção e raciocínio multimodal representa um avanço importante para as capacidades da IA conversacional em medicina", afirmaram os investigadores da Google. "Ao permitir que o AMIE 'veja' e interprete os tipos de evidência visual cruciais para a prática clínica, esta investigação demonstra as capacidades de IA necessárias para apoiar de forma mais eficaz pacientes e clínicos na prestação de cuidados de elevada qualidade."