谷歌DeepMind在医疗人工智能领域取得了重大突破,其升级版Articulate Medical Intelligence Explorer(AMIE)系统现已能够在文本对话的基础上,分析医学影像等视觉数据。
新版AMIE由谷歌Gemini 2.0 Flash模型驱动,能够在实时问诊过程中解读包括皮肤科照片、心电图(ECG)和实验室报告在内的多种医学影像。这一多模态能力让AI能够在对话中主动请求视觉输入,分析后将结果纳入诊断流程。
在一项涵盖105次模拟问诊的综合评估中,AMIE在多项关键指标上表现优于经过认证的初级保健医生。参与评审的医学专家认为,AMIE在影像解读质量、诊断准确性和治疗方案制定等方面均更胜一筹。
“AMIE的内部状态能够在对话过程中捕捉其对患者的知识,”谷歌DeepMind研究人员在2025年5月的公告中解释道,“这使系统能够像经验丰富的临床医生一样,有针对性地提问和回应,收集诊断证据。”
参与研究的模拟患者普遍认为,与AMIE的交流体验优于与人类医生的问诊。一位患者表示,AMIE对皮肤病的解释比他们最近一次远程医疗就诊时医生的讲解更清晰。
这一进展正值斯坦福大学2025年AI指数报告发布,报告指出AI医疗应用正以前所未有的速度发展。报告显示,获FDA批准的AI医疗设备数量已从2015年的6款激增至2023年的223款。
尽管AMIE的能力令人瞩目,谷歌强调该系统仍处于实验阶段。目前,AMIE已与Beth Israel Deaconess医疗中心开展研究合作,正式进入真实临床环境进行实际测试,所有操作均需获得患者同意。
“多模态感知与推理的结合,是医疗对话AI能力向前迈出的重要一步,”谷歌研究团队表示,“让AMIE能够‘看见’并解读临床实践中至关重要的视觉证据,这项研究展示了AI更有效辅助患者和医生实现高质量医疗服务的潜力。”