menu
close

L’IA AMIE de Google « voit » maintenant les images médicales et surpasse les médecins

Google a élargi les capacités de son Articulate Medical Intelligence Explorer (AMIE) en y intégrant des fonctionnalités visuelles révolutionnaires, permettant à l’IA d’interpréter des images médicales comme des radiographies et des affections cutanées. Lors de tests contrôlés, ce système multimodal a surpassé les médecins humains en précision diagnostique et en communication avec les patients. Bien qu’encore en phase de recherche, AMIE représente une avancée majeure dans les soins de santé assistés par l’IA, susceptible de transformer le diagnostic et le traitement médicaux.
L’IA AMIE de Google « voit » maintenant les images médicales et surpasse les médecins

Google DeepMind a réalisé une percée majeure en intelligence artificielle médicale avec la version améliorée de son système Articulate Medical Intelligence Explorer (AMIE), qui peut désormais analyser des données médicales visuelles en plus des conversations textuelles.

La nouvelle version d’AMIE, propulsée par le modèle Gemini 2.0 Flash de Google, est capable d’interpréter divers types d’images médicales, y compris des photos dermatologiques, des électrocardiogrammes (ECG) et des documents de laboratoire lors de consultations en direct. Cette capacité multimodale permet à l’IA de demander des éléments visuels en cours de conversation, de les analyser et d’intégrer ses observations à son processus diagnostique.

Dans une évaluation approfondie impliquant 105 consultations simulées, AMIE a démontré une performance supérieure à celle de médecins de famille certifiés. Les spécialistes médicaux ayant examiné les consultations ont attribué à AMIE de meilleures notes sur plusieurs critères essentiels, notamment la qualité d’interprétation des images, la précision du diagnostic et l’élaboration de plans de traitement.

« L’état interne d’AMIE reflète sa connaissance du patient à un moment donné de la conversation », ont expliqué les chercheurs de Google DeepMind dans leur annonce de mai 2025. Cela permet au système d’orienter ses questions et ses réponses comme le ferait un clinicien expérimenté recueillant des preuves.

Les acteurs jouant le rôle de patients dans l’étude ont souvent évalué les interactions avec AMIE comme supérieures à celles avec des médecins humains, l’un d’eux ayant souligné que l’explication d’AMIE concernant une affection cutanée était plus claire que celle reçue lors d’une récente consultation virtuelle.

Cette avancée survient alors que le rapport 2025 AI Index de l’Université Stanford met en lumière des progrès sans précédent dans les applications de l’IA en santé. Le rapport note que le nombre de dispositifs médicaux dotés d’IA approuvés par la FDA est passé de seulement six en 2015 à 223 en 2023.

Bien que les capacités d’AMIE soient impressionnantes, Google précise que le système demeure expérimental. Des essais en conditions réelles débutent maintenant grâce à un partenariat de recherche avec le Beth Israel Deaconess Medical Center, où AMIE sera évaluée dans des contextes cliniques réels avec le consentement des patients.

« L’intégration de la perception et du raisonnement multimodaux représente une avancée utile pour les capacités de l’IA conversationnelle en médecine », ont déclaré les chercheurs de Google. « En permettant à AMIE de “voir” et d’interpréter les types de preuves visuelles essentielles à la pratique clinique, cette recherche démontre les capacités de l’IA nécessaires pour mieux soutenir patients et cliniciens dans la prestation de soins de haute qualité. »

Source: Onefootball.com

Latest News