Google DeepMind ha logrado un avance importante en la inteligencia artificial médica con la versión mejorada de su sistema Articulate Medical Intelligence Explorer (AMIE), que ahora puede analizar datos médicos visuales junto con conversaciones basadas en texto.
La versión actualizada de AMIE, impulsada por el modelo Gemini 2.0 Flash de Google, puede interpretar diversas imágenes médicas, incluyendo fotografías dermatológicas, electrocardiogramas (ECG) y documentos de laboratorio durante consultas en tiempo real. Esta capacidad multimodal permite que la IA solicite insumos visuales en medio de la conversación, los analice e incorpore los hallazgos en su proceso diagnóstico.
En una evaluación exhaustiva que involucró 105 consultas simuladas, AMIE demostró un rendimiento superior en comparación con médicos generales certificados. Especialistas médicos que revisaron las consultas calificaron a AMIE por encima de los médicos en varios indicadores clave, como la calidad de la interpretación de imágenes, la precisión diagnóstica y el desarrollo de planes de manejo.
"El estado interno de AMIE captura su conocimiento sobre el paciente en un momento dado de la conversación", explicaron investigadores de Google DeepMind en su anuncio de mayo de 2025. Esto permite que el sistema guíe sus preguntas y respuestas como un clínico experimentado que recopila evidencia.
Los actores que participaron como pacientes en el estudio calificaron frecuentemente las interacciones con AMIE como superiores a las que tuvieron con médicos humanos, y uno de ellos señaló que la explicación de AMIE sobre una afección cutánea fue más clara que la recibida en una consulta reciente de telemedicina.
Este desarrollo se da en el contexto del informe AI Index 2025 de la Universidad de Stanford, que destaca avances sin precedentes en aplicaciones de IA para la salud. El informe señaló que los dispositivos médicos habilitados con IA aprobados por la FDA se dispararon de solo seis en 2015 a 223 en 2023.
Aunque las capacidades de AMIE son impresionantes, Google enfatiza que el sistema sigue siendo experimental. Ahora comienza la fase de pruebas en el mundo real a través de una colaboración de investigación con el Beth Israel Deaconess Medical Center, donde AMIE será evaluado en entornos clínicos reales con el consentimiento de los pacientes.
"La integración de percepción y razonamiento multimodal marca un avance útil para las capacidades de la IA conversacional en medicina", afirmaron los investigadores de Google. "Al permitir que AMIE 'vea' e interprete los tipos de evidencia visual cruciales para la práctica clínica, esta investigación demuestra las capacidades de IA necesarias para asistir de manera más efectiva a pacientes y médicos en la atención de alta calidad."