中国の人工知能スタートアップDeepSeekは、オープンソース推論モデル「R1-0528」をリリースし、その性能をOpenAIのo3やGoogleのGemini 2.5 Proと肩を並べるレベルにまで引き上げた。
今回のアップグレードは、計算リソースの増強とアルゴリズム最適化による推論能力の大幅な進化を示している。ベンチマークテストでは、AIME 2025数学テストにおける正答率が従来の70%から87.5%へと大幅に向上。これは、1問あたりの平均推論トークン数が12,000から23,000へと倍増したことによる推論深度の強化が要因となっている。
数学的能力の向上に加え、R1-0528は開発者フレンドリーな機能も多数搭載。システムプロンプト、ファンクションコール、JSON出力への対応により、アプリケーションへの統合が容易になった。また、リライトや要約タスクにおける幻覚(ハルシネーション)発生率も45~50%低減し、自然言語によるコーディング(バイブコーディング)への対応も強化されている。
さらに、リソース制約のあるユーザー向けに「DeepSeek-R1-0528-Qwen3-8B」という蒸留版も公開。これはAlibabaのQwen3 8Bモデルをベースに、R1-0528の推論パターンでファインチューニングしたもので、一般的なGPU1枚で動作可能ながら、GoogleのGemini 2.5 Flashを一部の数学ベンチマークで上回り、MicrosoftのPhi 4 Reasoning Plusモデルにも迫る性能を発揮している。
R1-0528は従来通り商用利用やカスタマイズが可能なMITライセンスで提供されている。Amazon Web ServicesやMicrosoft Azureなど大手クラウドプロバイダーも、データプライバシー確保のため中国サーバーから隔離した形でDeepSeekモデルの提供を開始している。
このリリースにより、DeepSeekとMetaはオープンソースAI分野のリーダーとしての地位をさらに強固なものとし、OpenAI、Google、Microsoft、Anthropicといった独自モデルに対し、はるかに低コストで強力な選択肢を提供している。