menu
close

Google加固Gemini 2.5,应对AI安全威胁

Google大幅提升了Gemini 2.5 Pro和Flash模型的安全防护,使其成为公司迄今为止最安全的AI模型。此次升级重点针对工具使用过程中的间接提示注入攻击,这是一种日益严重的网络安全威胁,攻击者会将恶意指令嵌入AI系统检索的数据中。随着Google将Project Mariner的计算机使用能力集成到Gemini API和Vertex AI,Automation Anywhere和UiPath等公司已开始探索其潜力。
Google加固Gemini 2.5,应对AI安全威胁

Google已对其Gemini 2.5系列AI模型进行了重大安全升级,使其成为公司迄今为止最安全的模型,以应对不断演变的AI安全威胁。

此次增强的核心是一种全新的安全策略,大幅提升了Gemini在工具使用过程中抵御间接提示注入攻击的能力。这类攻击发生在AI模型检索数据时,若数据中被嵌入了恶意指令,模型可能会执行有害命令或泄露敏感信息。

这些安全改进正值Google准备将Project Mariner的计算机使用能力集成到Gemini API和Vertex AI之际。Project Mariner使AI智能体能够自动控制网页浏览器并执行特定任务,包括浏览网站和与网页元素交互。Automation Anywhere、UiPath、Browserbase、Autotab、The Interaction Company和Cartwheel等多家公司已在测试这些能力,预计今年夏天将向更多开发者开放。

Google为Gemini 2.5制定的安全策略包含多重防御机制,包括持续进行自动化红队测试(ART),不断检测潜在漏洞。根据Google DeepMind的研究,这一方法已显著降低了自适应攻击的成功率,相较于以往模型版本更为安全。公司还在包含真实攻击场景的数据集上对Gemini进行了微调,训练模型在遵循合法用户请求的同时,能够忽略嵌入的恶意指令。

除了安全性提升,Gemini 2.5模型还获得了其他新特性,包括在Gemini API和Vertex AI中引入思维摘要,将模型的推理过程以结构化方式呈现,提升透明度和调试效率。模型还原生支持音频输出,带来更自然的对话体验。

Gemini 2.5 Flash模型现已在Gemini应用中向所有用户开放,预计6月初将在Google AI Studio面向开发者和在Vertex AI面向企业全面上线。Gemini 2.5 Pro也将在随后推出,进一步扩大其增强的安全功能的受众范围。

Source:

Latest News