Google DeepMind a franchi une étape majeure dans l’IA médicale avec la version améliorée de son système Articulate Medical Intelligence Explorer (AMIE), désormais capable d’analyser des données médicales visuelles en plus des conversations textuelles.
La nouvelle version d’AMIE, propulsée par le modèle Gemini 2.0 Flash de Google, peut interpréter divers types d’images médicales, notamment des photos dermatologiques, des ECG et des documents de laboratoire lors de consultations en direct. Cette capacité multimodale permet à l’IA de demander des éléments visuels en cours de conversation, de les analyser et d’intégrer ses conclusions dans son processus diagnostique.
Lors d’une évaluation approfondie portant sur 105 consultations simulées, AMIE a démontré des performances supérieures à celles de médecins généralistes diplômés. Les spécialistes ayant évalué ces consultations ont attribué à AMIE de meilleures notes sur plusieurs critères essentiels, dont la qualité d’interprétation des images, la précision diagnostique et l’élaboration des plans de prise en charge.
« L’état interne d’AMIE reflète ses connaissances sur le patient à un moment donné de la conversation », expliquent les chercheurs de Google DeepMind dans leur annonce de mai 2025. Cela permet au système de guider ses questions et ses réponses à la manière d’un clinicien expérimenté recueillant des éléments de preuve.
Les patients-acteurs ayant participé à l’étude ont fréquemment jugé les échanges avec AMIE supérieurs à ceux avec des médecins humains, l’un d’eux soulignant que l’explication d’AMIE sur une affection cutanée était plus claire que celle reçue lors d’une récente téléconsultation.
Cette avancée intervient alors que le rapport 2025 AI Index de l’université de Stanford met en avant une progression sans précédent des applications de l’IA en santé. Le rapport note que le nombre de dispositifs médicaux dotés d’IA approuvés par la FDA est passé de seulement six en 2015 à 223 en 2023.
Bien que les capacités d’AMIE soient impressionnantes, Google précise que le système reste expérimental. Des essais en conditions réelles débutent désormais dans le cadre d’un partenariat de recherche avec le Beth Israel Deaconess Medical Center, où AMIE sera évalué en situation clinique réelle avec le consentement des patients.
« L’intégration de la perception et du raisonnement multimodaux constitue une avancée utile pour les capacités de l’IA conversationnelle en médecine », déclarent les chercheurs de Google. « En permettant à AMIE de ‘voir’ et d’interpréter les types de preuves visuelles essentielles à la pratique clinique, cette recherche démontre les capacités nécessaires pour mieux assister patients et cliniciens dans la fourniture de soins de haute qualité. »