Google已对其Gemini 2.5系列AI模型进行了重大安全升级,使其成为公司迄今为止最安全的模型,以应对不断演变的AI安全威胁。
此次增强的核心是一种全新的安全策略,大幅提升了Gemini在工具使用过程中抵御间接提示注入攻击的能力。这类攻击发生在AI模型检索数据时,若数据中被嵌入了恶意指令,模型可能会执行有害命令或泄露敏感信息。
这些安全改进正值Google准备将Project Mariner的计算机使用能力集成到Gemini API和Vertex AI之际。Project Mariner使AI智能体能够自动控制网页浏览器并执行特定任务,包括浏览网站和与网页元素交互。Automation Anywhere、UiPath、Browserbase、Autotab、The Interaction Company和Cartwheel等多家公司已在测试这些能力,预计今年夏天将向更多开发者开放。
Google为Gemini 2.5制定的安全策略包含多重防御机制,包括持续进行自动化红队测试(ART),不断检测潜在漏洞。根据Google DeepMind的研究,这一方法已显著降低了自适应攻击的成功率,相较于以往模型版本更为安全。公司还在包含真实攻击场景的数据集上对Gemini进行了微调,训练模型在遵循合法用户请求的同时,能够忽略嵌入的恶意指令。
除了安全性提升,Gemini 2.5模型还获得了其他新特性,包括在Gemini API和Vertex AI中引入思维摘要,将模型的推理过程以结构化方式呈现,提升透明度和调试效率。模型还原生支持音频输出,带来更自然的对话体验。
Gemini 2.5 Flash模型现已在Gemini应用中向所有用户开放,预计6月初将在Google AI Studio面向开发者和在Vertex AI面向企业全面上线。Gemini 2.5 Pro也将在随后推出,进一步扩大其增强的安全功能的受众范围。