NVIDIAは、今年初めに発表したBlackwellプラットフォームを大幅に強化した新アーキテクチャ「Blackwell Ultra」のリリースを準備しており、AIチップ市場での地位をさらに強固なものにしようとしている。
NVIDIAはAI学習市場で圧倒的なシェアを誇ってきたが、AIモデルの応答生成(推論)分野では競争が激化している。AIアプリケーションの高度化と普及に伴い、業界専門家は今後数年で推論市場が急拡大し、NVIDIAの独占に挑む競合が増加すると予測している。AI学習が大規模なデータセンター全体の膨大な計算能力を必要とするのに対し、推論は多様なワークロードが存在し、各種専用ハードウェアで対応可能だ。
Blackwell Ultra搭載製品は2025年後半よりパートナー各社から提供開始予定。Amazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructureなど主要クラウドプロバイダーがいち早くBlackwell Ultra搭載インスタンスを展開し、Dell、HPE、Lenovo、Supermicroなどサーバーメーカーも独自実装を順次投入する。
新アーキテクチャは、NVIDIAの第2世代Transformer EngineとカスタムBlackwell Tensor Core技術を採用し、TensorRT-LLMやNeMo Frameworkの革新と組み合わせることで、大規模言語モデルの推論・学習双方を加速。Blackwell Ultra Tensor Coreは、標準Blackwell GPU比で2倍のアテンションレイヤー高速化と1.5倍のAI計算FLOPSを実現する。
NVIDIAによれば、Blackwell Ultraファミリーは最大15ペタFLOPSの高密度4ビット浮動小数点性能と、1チップあたり最大288GBのHBM3eメモリを搭載。AI推論は主にメモリ帯域がボトルネックとなるため、メモリ容量の拡大はより大規模なモデル提供を可能にする。NVIDIAのIan Buck副社長(ハイパースケール&HPC担当)は、Blackwell Ultraにより推論モデルのスループットが従来のHopper世代比で10倍に向上し、応答時間も1分超から最短10秒程度まで短縮できると述べている。
NVIDIAは、AIワークロード向け「MI300」シリーズを投入したAMDからの圧力も強まっている。AMDはNVIDIAの供給制約を背景に採用事例を増やしており、2025年にはUntether AIのAIハードウェア・ソフトウェア技術者を獲得し、推論分野の強化を図ると発表した。 またAmazonも、Graviton4やProject RainierのTrainiumチップを軸にAIインフラ全体の支配を目指しており、Claude 4など主要AIモデルの学習をNVIDIA以外のハードウェアで実現している。
こうした競争環境下でも、アナリストはNVIDIAのデータセンター売上が2025年に2,000億ドル規模へ拡大し、当面は80〜85%の市場シェアを維持すると予測している。 Blackwell UltraによるNVIDIAの戦略は、推論市場での優位確保と学習分野での継続的なイノベーションを両立し、「最先端AIモデルはNVIDIAハードウェアに依存する」という従来の常識を覆す可能性も秘めている。