Google宣布,Gemini 2.5 Flash和2.5 Pro现已稳定并全面上市,为企业在关键应用中部署先进AI能力提供了所需的可靠性与可扩展性。与此同时,公司还预览推出了Gemini 2.5 Flash-Lite,称其为目前成本最低、速度最快的2.5模型。
Gemini 2.5 Flash-Lite是一款推理模型,允许通过API参数动态控制“思考预算”。与2.5家族的其他模型不同,Flash-Lite默认关闭“思考”功能,专为成本和速度优化。尽管如此,它仍支持包括Google搜索实时检索(Grounding with Google Search)、代码执行、URL上下文以及函数调用在内的所有原生工具。
Flash-Lite在性能上优于上一代Flash-Lite模型,且在成本更低的情况下,比2.0 Flash快1.5倍。它专为高并发、对延迟敏感的任务设计,如翻译、分类、智能路由及其他对成本敏感的大规模操作。
在编程、数学、科学、推理和多模态基准测试中,该模型的表现远超2.0 Flash-Lite,非常适合高并发任务。
与Gemini 2.5家族的其他模型一样,Flash-Lite具备多项实用能力,包括可按不同预算开启“思考”功能、连接Google搜索实时检索和代码执行等工具、多模态输入,以及100万token上下文长度。
为确保响应的时效性和准确性,Flash-Lite可将Google搜索作为内置工具,智能判断何时调用搜索以增强知识。
除了Flash-Lite的发布,Google还宣布Gemini 2.5 Pro已在WebDev Arena和LMArena排行榜上成为全球领先模型。在WebDev Arena编程排行榜上,ELO分数高达1415,并在LMArena的所有排行榜中领先,LMArena通过多维度衡量人类偏好。
此外,Google已将LearnLM直接集成进Gemini 2.5,使其成为全球领先的学习模型。根据最新报告,Gemini 2.5 Pro在所有学习科学原理类别中均优于竞争对手,教育者和教学专家在多种学习场景下更倾向于选择它。
目前,Gemini 2.5 Flash-Lite已在Google AI Studio和Vertex AI中以预览版上线,同时2.5 Flash和Pro的稳定版本也已发布。开发者可通过Google Gen AI SDK访问该模型(gemini-2.5-flash-lite-preview-06-17),该SDK通过Gemini Developer API和Vertex AI Gemini API,为Gemini 2.5家族提供统一接口。