Googleは最新のAIモデル「Gemini 2.5 Flash」を開発者および企業向けに一般提供開始し、AIによるコーディング能力の大きな進化を示しました。
この新モデルは4月からプレビュー提供されていましたが、複数の側面で大幅な改善が加えられています。Google DeepMindによると、Gemini 2.5 Flashは推論、マルチモーダル、コード生成、長文コンテキスト処理の各分野で強化され、評価時のトークン使用量も20~30%削減されるなど、さらに効率的になりました。
Gemini 2.5 Flashの特筆すべき点は、Google初の「思考」機能を備えたFlashモデルであることです。これにより、モデルは応答前に問題を推論できるようになり、開発者は「思考バジェット」を調整して品質・コスト・遅延のバランスを取ることが可能です。思考機能をオフにしても、従来バージョン同様の高速性を維持しつつ、パフォーマンスが向上しています。
特にコーディング能力は注目に値します。Gemini 2.5 ProはWebDev ArenaリーダーボードでELOスコア1415を記録しコーディングベンチマークをリードしていますが、2.5 Flashもコード生成や複雑な推論で大きな進歩を見せています。これにより、Webアプリケーションからデータ処理タスクまで、幅広い開発者にとって価値ある存在となっています。
コーディング以外にも、より自然な会話体験を実現するネイティブ音声出力や、24言語・複数話者対応のテキスト読み上げ機能など、新機能が多数追加されています。また、Project Marinerのコンピュータ操作機能もGemini APIおよびVertex AIに導入され、モデルがコンピュータインターフェースと連携できるようになりました。
今回のリリースは、Flash、Pro、そして新たに追加されたFlash-Liteバリアントを含むGemini 2.5ファミリーの拡充戦略の一環です。3モデルとも100万トークンのコンテキストウィンドウとマルチモーダル入力機能を備えていますが、それぞれ異なるユースケースや効率要件に最適化されています。
開発者はGoogle AI StudioからGemini 2.5 Flashにアクセスでき、企業はVertex AI経由で導入可能です。また、Geminiアプリを通じて誰でも利用できるため、Googleのエコシステム全体で高度なAI機能がより身近になっています。