menu
close

クラウド大手、独自AIチップの展開競争を加速

GoogleはAI推論向けTPU v6eチップの大規模展開を開始し、2025年前半には主流となる見込みです。一方、AWSはTrainium v2プラットフォームの拡大に注力しつつ、2026年の量産に向けて複数のTrainium v3バリアントを開発中で、今年は米国クラウドサービスプロバイダーの中で自社開発AIチップ出荷数でトップになると予想されています。大手クラウド事業者がサードパーティ製品に頼るだけでなく、独自のAIアクセラレータを開発・展開する動きが加速しており、業界の大きな転換点となっています。
クラウド大手、独自AIチップの展開競争を加速

主要なクラウドサービスプロバイダーは、独自AIチップ戦略を急速に推進し、AIインフラの競争環境を大きく変えつつあります。

自社開発チップの採用率が比較的高いGoogleは、AI推論に特化したTPU v6eチップの大規模展開を開始し、2025年前半には主流となる見通しです。 TrendForceによれば、Googleのサーバー成長は主にソブリンクラウドプロジェクトや東南アジアでの新規データセンター拡張によって牽引されています。 TPU v6e(Trilliumとも呼ばれる)は、GoogleのAIハードウェアポートフォリオにおける大きな進化であり、TPU v5eと比べてチップあたりのピーク演算性能が4.7倍に向上し、High Bandwidth Memory(HBM)の容量と帯域幅も2倍になっています。

Amazon Web Services(AWS)は、自社開発のTrainium v2プラットフォームの拡大に注力する一方、2026年の量産を目指して複数のTrainium v3バリアントを開発中です。今年は米国CSPの中で自社開発AIチップ出荷数でトップとなり、2024年比で2倍に増加する見込みです。 AWSのTrainium2チップは初代Trainiumの最大4倍の性能を実現し、Trainium2ベースのAmazon EC2 Trn2インスタンスは生成AI用途に特化、数百億から1兆以上のパラメータを持つモデルの学習・推論に最適化されています。

Oracleは他の大手CSPと比べ、AIサーバーやインメモリデータベース(IMDB)サーバーの購入に注力しています。2025年にはAIサーバーインフラの展開を強化し、コアクラウドデータベースサービスとAIアプリケーションの統合を進める計画です。 共同創業者のラリー・エリソン氏は、Oracleのデータベースに蓄積された膨大なエンタープライズデータが同社の強みであると強調。最新版のOracle 23aiデータベースはAIワークロード向けに特化されており、「すべての顧客データを、顧客のプライバシーを完全に保護しつつ、あらゆる人気AIモデルに即時提供できる唯一のデータベース」とされています。

独自AIチップへのシフトは、クラウド事業者がパフォーマンス最適化とコスト削減、サードパーティベンダーへの依存低減を図る戦略的転換点となっています。AWS TrainiumやGoogleのTPUなどの独自アクセラレータは、NVIDIAのA100/H100 GPUと直接競合しつつ、クラウドとのシームレスな統合や予測可能な価格体系、最適化されたインフラという差別化要素を持っています。

TrendForceの最新分析によると、北米の主要CSPがAIサーバー市場成長の主導役であり、中東や欧州のティア2データセンターやソブリンクラウドプロジェクトによる需要も堅調に推移しています。地政学的緊張や米国の輸出規制が中国市場に影響を与えているものの、世界のAIサーバー出荷台数は前年比24.3%増が見込まれています。 この堅調な成長は、AIがクラウドサービスの中核となり、業界全体で大規模なインフラ投資を牽引していることを浮き彫りにしています。

Source:

Latest News