Google DeepMindは、強化された医療AIシステム『Articulate Medical Intelligence Explorer(AMIE)』によって、医療分野における大きなブレークスルーを達成しました。AMIEはこれまでのテキストベースの対話に加え、医用画像データも解析できるようになりました。
最新のAMIEは、GoogleのGemini 2.0 Flashモデルを基盤とし、皮膚科の写真、心電図(ECG)、検査結果の書類など、さまざまな医用画像をライブ診察中に解釈可能です。このマルチモーダル機能により、AIは対話の途中で画像の提供を求め、それを解析し、診断プロセスに反映させることができます。
105件のシミュレーション診察を対象とした包括的な評価では、AMIEは米国の認定家庭医よりも優れたパフォーマンスを示しました。診察内容をレビューした医療専門家は、画像解釈の質、診断精度、治療方針の策定など複数の重要指標でAMIEを高く評価しました。
Google DeepMindの研究者は2025年5月の発表で「AMIEの内部状態は、対話のある時点での患者に関する知識を保持している」と説明しています。これにより、経験豊富な臨床医のように、証拠を集めながら質問や応答を導くことが可能となります。
研究に参加した模擬患者役の多くは、AMIEとの対話が人間の医師よりも優れていたと評価し、「皮膚疾患の説明が、最近受けた遠隔診療よりも分かりやすかった」との声もありました。
この進展は、スタンフォード大学が2025年に発表したAI Indexレポートでも注目されており、医療分野におけるAI応用の急速な進化が指摘されています。同レポートによれば、FDA(米食品医薬品局)認可のAI搭載医療機器は2015年の6件から2023年には223件へと急増しています。
AMIEの能力は目覚ましいものの、Googleは同システムが依然として実験段階にあることを強調しています。現在、Beth Israel Deaconess Medical Centerとの研究提携を通じて、実際の臨床現場で患者の同意を得た上での実地検証が始まっています。
Googleの研究者は「マルチモーダルな認識と推論の統合は、医療分野における会話型AIの能力向上に向けた大きな一歩です。AMIEが臨床現場で不可欠な視覚的証拠を『見て』解釈できるようになったことで、患者と医療従事者の質の高いケアを支援するAIの可能性が実証されました」とコメントしています。