Google 扩展了其 Gemini 2.5 模型家族,现已将 Gemini 2.5 Flash 和 Pro 模型全面开放,同时推出了 2.5 Flash-Lite——这是迄今为止 2.5 系列中速度最快、性价比最高的模型。2.5 Flash 和 Pro 的稳定版本现已发布,使开发者能够更安心地构建生产级应用。
2025 年 7 月 22 日,Google 发布了 Gemini 2.5 Flash-Lite 的稳定版本,具备极高的速度、成本效益和优异的质量。该模型旨在推动“每美元智能力”的极限,内置推理能力,可根据需求灵活开启,满足更高要求的应用场景。 Flash-Lite 的定价仅为每百万输入 tokens 0.10 美元、每百万输出 tokens 0.40 美元,专为翻译、分类等对延迟敏感的任务设计。在广泛的提示样本中,其延迟低于 2.0 Flash-Lite 和 2.0 Flash,非常适合高并发工作负载。
Gemini 2.5 Flash-Lite 的预览版现已在 Google AI Studio 和 Vertex AI 上线,同时 2.5 Flash 和 Pro 的稳定版本也已同步提供。2.5 Flash 和 Pro 也可在 Gemini 应用中访问。Google 还将定制版的 2.5 Flash-Lite 和 Flash 引入了搜索服务。
此外,Google 推出了 Gemini CLI,这是一款开源 AI 代理,将 Gemini 的强大能力直接带入开发者的终端。它为用户提供了轻量级的 Gemini 访问方式,实现从提示到模型的最直接路径。该工具可直接在终端中用于编程、问题解决和任务管理。用户可通过个人 Google 账号免费访问 Gemini 2.5 Pro,或使用 Google AI Studio 或 Vertex AI 的密钥获得更多访问权限。
Gemini CLI 设计灵活,旨在为用户提供从提示到 Google 模型的最直接路径。虽然它在编程方面表现出色,但功能远不止于此。作为一款多用途的本地工具,它适用于内容生成、问题解决、深度研究和任务管理等多种场景。
尽管大多数用户会用 Gemini CLI 进行编程,开发者还可以借助它与 Google 的 Veo 3 模型协作制作视频、生成研究报告,或通过 Google 搜索获取实时信息。Google 还表示,Gemini CLI 可连接 MCP 服务器,支持开发者连接外部数据库。为促进推广,Google 将 Gemini CLI 以 Apache 2.0 许可证开源,并提供宽松的使用额度。免费用户每分钟可发起 60 次模型请求、每天最多 1000 次,这一额度大约是开发者此前平均使用量的两倍。
Google 旗舰 AI 模型家族的此次扩展,标志着强大 AI 工具在开发者和终端用户中的可及性取得重大进步。更高效模型与开发者工具的推出,彰显了 Google 持续巩固其 AI 市场竞争力、拓展实际应用场景的决心。