Google DeepMind hat mit der verbesserten Version seines Articulate Medical Intelligence Explorer (AMIE) einen bedeutenden Durchbruch im Bereich medizinischer KI erzielt: Das System kann nun visuelle medizinische Daten neben textbasierten Gesprächen analysieren.
Das aktualisierte AMIE, das auf Googles Gemini 2.0 Flash-Modell basiert, ist in der Lage, verschiedene medizinische Bilder wie Dermatologiefotos, EKGs und Laborbefunde während Live-Konsultationen zu interpretieren. Dank dieser multimodalen Fähigkeit kann die KI während eines Gesprächs gezielt nach visuellen Eingaben fragen, diese analysieren und die Ergebnisse in den Diagnoseprozess einfließen lassen.
In einer umfassenden Studie mit 105 simulierten Konsultationen zeigte AMIE eine überlegene Leistung im Vergleich zu Fachärzten für Allgemeinmedizin. Medizinische Spezialisten, die die Konsultationen bewerteten, stuften AMIE in mehreren entscheidenden Kategorien höher ein – darunter Bildinterpretation, diagnostische Genauigkeit und Entwicklung von Behandlungsplänen.
„AMIEs interner Zustand erfasst das Wissen über den Patienten zu einem bestimmten Zeitpunkt im Gespräch“, erklärten Forscher von Google DeepMind in ihrer Ankündigung im Mai 2025. Dadurch kann das System seine Fragen und Antworten gezielt steuern, ähnlich wie ein erfahrener Kliniker, der Beweise sammelt.
Patientendarsteller, die an der Studie teilnahmen, bewerteten die Interaktionen mit AMIE häufig als besser als die mit menschlichen Ärzten. Einer merkte an, dass AMIEs Erklärung zu einer Hauterkrankung klarer gewesen sei als das, was er kürzlich bei einem Telemedizin-Termin erhalten hatte.
Die Entwicklung erfolgt vor dem Hintergrund des AI Index Reports 2025 der Stanford University, der beispiellose Fortschritte bei KI-Anwendungen im Gesundheitswesen hervorhebt. Der Bericht stellt fest, dass die Zahl der von der FDA zugelassenen KI-gestützten Medizinprodukte von nur sechs im Jahr 2015 auf 223 im Jahr 2023 gestiegen ist.
Trotz der beeindruckenden Fähigkeiten betont Google, dass AMIE weiterhin experimentell bleibt. Nun beginnt die Erprobung im klinischen Alltag im Rahmen einer Forschungspartnerschaft mit dem Beth Israel Deaconess Medical Center, wo AMIE mit Zustimmung der Patienten in realen medizinischen Umgebungen evaluiert wird.
„Die Integration multimodaler Wahrnehmung und Schlussfolgerung ist ein hilfreicher Fortschritt für die Fähigkeiten konversationeller KI in der Medizin“, so die Google-Forscher. „Indem wir AMIE ermöglichen, die für die klinische Praxis entscheidenden visuellen Beweise zu ‚sehen‘ und zu interpretieren, zeigt diese Forschung, welche KI-Fähigkeiten nötig sind, um Patienten und Ärzten bei einer hochwertigen Versorgung effektiver zu unterstützen.“