menu
close

谷歌识别出威胁AI智能体安全的“三重致命组合”

谷歌研究员Santiago Díaz、Christoph Kern和Kara Olive发布了关于AI智能体安全漏洞的开创性研究。他们于2025年6月发表的论文指出了一种关键的安全模式,被称为“三重致命组合”:即私有数据访问、暴露于不受信任内容以及具备外部通信能力的危险结合。该研究为防御日益自主的AI系统免受提示注入和数据外泄攻击提供了重要见解。
谷歌识别出威胁AI智能体安全的“三重致命组合”

在AI安全领域取得重大进展之际,谷歌研究人员识别出一种威胁AI智能体系统完整性的根本性漏洞模式。

2025年6月15日,谷歌安全团队发布了《谷歌AI智能体安全方法简介》一文,由Santiago Díaz、Christoph Kern和Kara Olive联合撰写。论文阐述了谷歌为保障AI智能体安全而提出的愿景框架。谷歌将AI智能体定义为“能够感知环境、做出决策并自主采取行动以实现用户定义目标的AI系统”。

该研究重点指出了两大主要安全隐患:恶意行为(非预期、有害或违反政策的行为)以及敏感数据泄露(未授权的私密信息披露)。为应对这些风险,谷歌倡导采用混合式、纵深防御策略,将传统安全控制与动态、基于推理的防御手段相结合。

紧接着,2025年6月16日,谷歌又发布了相关研究,首次提出了AI智能体的“三重致命组合”概念——即私有数据访问、不受信任内容暴露和外部通信能力三者的危险结合。这三项能力一旦在AI系统中同时存在,攻击者就有可能诱导智能体访问敏感信息并将其外泄。

安全研究员Simon Willison几年前首次提出了“提示注入”这一术语,他在分析谷歌研究时强调了理解这一漏洞模式的重要性。“如果你的智能体同时具备这三项特性,攻击者就能轻易诱骗其访问你的私有数据并将其发送给攻击者本人。”Willison指出。

随着AI智能体日益自主并接入更多敏感系统,这项研究的时机尤为关键。过去两年,包括微软、谷歌和Anthropic在内的多家科技巨头,其AI产品均曾遭遇类似安全问题,已有数十起数据外泄攻击被记录,受影响系统涵盖ChatGPT、Microsoft Copilot和Google Bard等。

谷歌的研究提出了智能体安全的三项核心原则:智能体必须有明确的人类控制者,其权限需被严格限制,其行为和规划过程应可被观察。这些指导原则为开发者和组织在部署AI智能体系统、应对日益复杂的安全挑战时,提供了宝贵的参考框架。

Source:

Latest News