Google DeepMind постигна значителен пробив в медицинския изкуствен интелект с подобрената си система Articulate Medical Intelligence Explorer (AMIE), която вече може да анализира визуални медицински данни наред с текстови разговори.
Обновеният AMIE, задвижван от модела Gemini 2.0 Flash на Google, може да интерпретира различни медицински изображения, включително дерматологични снимки, ЕКГ и лабораторни документи по време на живи консултации. Тази мултимодална способност позволява на изкуствения интелект да изисква визуални входни данни по време на разговора, да ги анализира и да включва откритията в диагностичния си процес.
В обширна оценка, включваща 105 симулирани консултации, AMIE демонстрира по-добри резултати в сравнение с лекари с бордова сертификация по първична медицинска помощ. Медицински специалисти, които прегледаха консултациите, оцениха AMIE по-високо по няколко ключови критерия, включително качество на интерпретацията на изображения, точност на диагнозата и разработване на план за лечение.
„Вътрешното състояние на AMIE улавя знанията ѝ за пациента в даден момент от разговора“, обясняват изследователи от Google DeepMind в съобщението си от май 2025 г. Това позволява на системата да насочва въпросите и отговорите си като опитен клиницист, който събира доказателства.
Актьори, играещи пациенти в изследването, често оценяват взаимодействията си с AMIE като по-добри от тези с човешки лекари, като един от тях отбелязва, че обяснението на AMIE за кожно състояние е било по-ясно от това, което е получил по време на скорошна телемедицинска консултация.
Развитието идва на фона на доклада AI Index 2025 на Станфордския университет, който подчертава безпрецедентния напредък в приложенията на изкуствения интелект в здравеопазването. В доклада се отбелязва, че одобрените от FDA медицински устройства с изкуствен интелект са се увеличили от едва шест през 2015 г. до 223 през 2023 г.
Въпреки впечатляващите възможности на AMIE, Google подчертава, че системата все още е експериментална. Реални тестове вече започват чрез изследователско партньорство с Beth Israel Deaconess Medical Center, където AMIE ще бъде оценявана в реални клинични условия с информирано съгласие от пациентите.
„Интеграцията на мултимодално възприятие и разсъждение е важна стъпка напред за възможностите на разговорния изкуствен интелект в медицината“, заявяват изследователите от Google. „Като позволяваме на AMIE да 'вижда' и интерпретира видовете визуални доказателства, които са ключови за клиничната практика, това изследване демонстрира AI възможностите, необходими за по-ефективна помощ на пациенти и клиницисти в предоставянето на висококачествена грижа.“