Google DeepMind a realizat un progres major în domeniul inteligenței artificiale medicale prin îmbunătățirea sistemului Articulate Medical Intelligence Explorer (AMIE), care poate acum să analizeze date medicale vizuale alături de conversații bazate pe text.
Noul AMIE, alimentat de modelul Gemini 2.0 Flash de la Google, poate interpreta diverse imagini medicale, inclusiv fotografii dermatologice, electrocardiograme (ECG) și documente de laborator, în timpul consultațiilor live. Această capacitate multimodală permite AI-ului să solicite imagini pe parcursul conversației, să le analizeze și să integreze concluziile în procesul de diagnosticare.
Într-o evaluare amplă care a implicat 105 consultații simulate, AMIE a demonstrat performanțe superioare față de medici primari certificați. Specialiștii medicali care au analizat consultațiile au acordat AMIE scoruri mai mari la mai mulți indicatori esențiali, inclusiv calitatea interpretării imaginilor, acuratețea diagnosticării și dezvoltarea planului de management.
„Starea internă a AMIE surprinde cunoștințele sale despre pacient la un moment dat în conversație”, au explicat cercetătorii Google DeepMind în anunțul lor din mai 2025. Acest lucru permite sistemului să-și ghideze întrebările și răspunsurile asemenea unui clinician experimentat care adună dovezi.
Actorii care au interpretat pacienți în studiu au evaluat frecvent interacțiunile cu AMIE ca fiind superioare celor cu medici umani, unul dintre ei remarcând că explicația oferită de AMIE pentru o afecțiune a pielii a fost mai clară decât cea primită la o consultație recentă prin telemedicină.
Această dezvoltare vine pe fondul raportului AI Index 2025 al Universității Stanford, care evidențiază progrese fără precedent în aplicațiile AI pentru sănătate. Raportul notează că numărul dispozitivelor medicale aprobate de FDA și dotate cu AI a crescut de la doar șase în 2015 la 223 până în 2023.
Deși capabilitățile AMIE sunt impresionante, Google subliniază că sistemul rămâne experimental. Testarea în condiții reale începe acum printr-un parteneriat de cercetare cu Beth Israel Deaconess Medical Center, unde AMIE va fi evaluat în contexte clinice reale, cu consimțământul pacienților.
„Integrarea percepției și raționamentului multimodal reprezintă un pas important pentru capabilitățile AI conversaționale în medicină”, au declarat cercetătorii Google. „Prin faptul că AMIE poate ‘vedea’ și interpreta tipurile de dovezi vizuale esențiale practicii clinice, această cercetare demonstrează capacitățile AI necesare pentru a sprijini mai eficient pacienții și clinicienii în asigurarea unui act medical de calitate.”