Googleは、Gemini 2.5 Flashおよび2.5 Proが安定版となり、一般提供を開始したことを発表しました。これにより、組織はミッションクリティカルなアプリケーションに先進的なAI機能を安心して導入できる信頼性とスケーラビリティを得られます。これらのリリースとあわせて、同社は最もコスト効率が高く高速な2.5モデルである「Gemini 2.5 Flash-Lite」のプレビュー版も発表しました。
Gemini 2.5 Flash-Liteは、APIパラメータで「思考」予算を動的に制御できる推論モデルです。2.5ファミリーの他のモデルとは異なり、Flash-Liteはコストと速度を最適化し、「思考」機能がデフォルトでオフになっています。これらの最適化にもかかわらず、Google検索によるグラウンディング、コード実行、URLコンテキスト、ファンクションコールなど、すべてのネイティブツールをサポートしています。
Flash-Liteは、従来のFlash-Liteモデルよりも高いパフォーマンスを発揮し、2.0 Flashと比べて1.5倍高速かつ低コストです。特に翻訳、分類、インテリジェントルーティングなどの高ボリュームかつ低遅延が求められるコスト重視の大規模タスク向けに設計されています。また、コーディング、数学、科学、推論、マルチモーダルベンチマークにおいても2.0 Flash-Liteを大きく上回る性能を示しており、高ボリュームタスクに最適です。
Gemini 2.5ファミリーの他のモデル同様、Flash-Liteも「思考」機能を異なる予算でオンにできるほか、Google検索によるグラウンディングやコード実行、マルチモーダル入力、100万トークンのコンテキスト長など、役立つ機能を備えています。レスポンスの最新性と正確性を担保するため、Flash-LiteはGoogle検索を組み込みツールとして活用し、必要に応じて知識を補強します。
さらに、GoogleはGemini 2.5 ProがWebDev ArenaおよびLMArenaのリーダーボードで世界トップのモデルとなったことも発表しました。WebDev ArenaのコーディングリーダーボードでELOスコア1415を記録し、LMArenaの全リーダーボードでも首位となっています。LMArenaは複数の観点から人間の好みを測定する評価指標です。
加えて、GoogleはLearnLMをGemini 2.5に直接統合し、学習分野でも世界トップのモデルに仕上げました。最新のレポートによると、Gemini 2.5 Proは学習科学の全カテゴリで競合他社を上回り、教育者や教育工学の専門家からも様々な学習シナリオで他のモデルより高く評価されています。
Gemini 2.5 Flash-Liteは、Google AI StudioおよびVertex AIでプレビュー提供が開始されており、2.5 FlashおよびProの安定版も利用可能です。開発者はGoogle Gen AI SDKを通じて本モデル(gemini-2.5-flash-lite-preview-06-17)にアクセスでき、Gemini Developer APIおよびVertex AI Gemini APIの両方からGemini 2.5ファミリーを統一的に利用できます。