NVIDIAのCEO、ジェンスン・フアン氏は、台北で開催されたComputex 2025の基調講演で、同社のAIコンピューティングにおける次なる進化「GB300『Blackwell Ultra』プラットフォーム」を発表した。この新プラットフォームは、今年第3四半期にリリースされる予定だ。
昨年発表された画期的なBlackwellアーキテクチャを基盤とするGB300 NVL72は、前世代のGB200 NVL72と比べて1.5倍のAI性能を実現。72基のBlackwell Ultra GPUと36基のArmベースNVIDIA Grace CPUを完全液冷設計で搭載し、AI推論ワークロードのために特化設計された統合コンピューティングプラットフォームとなっている。
技術仕様面では、GPUあたり288GBのHBM3Eメモリ(従来の192GBから50%増)を搭載するなど、大幅な強化が図られている。拡張されたメモリとアーキテクチャの改良により、推論やエージェントAI、フィジカルAIなど、より複雑なAIワークロードへの対応が可能となった。GB300のGPUは1,400ワット(GB200比で200ワット増)の電力を消費するが、これにより大幅な性能向上を実現している。
フアン氏は基調講演で「AIは飛躍的な進化を遂げており、推論やエージェントAIは桁違いの計算性能を求めている。Blackwell Ultraはまさにこの時代のために設計された。事前学習、追加学習、推論まで、すべてを効率的かつ柔軟にこなす単一の多用途プラットフォームだ」と語った。
GB300プラットフォームは、NVIDIAが描くAIインフラのビジョンにおける中核を担う存在だ。フアン氏は、AIが電気やインターネットと同様に社会基盤となり、価値ある計算成果を生み出す「ファクトリー」としての専用インフラが必要になると繰り返し強調している。GB300は、こうしたAIファクトリーのエンジンとして位置づけられており、NVIDIAはBlackwellアーキテクチャによる収益機会が従来のHopperアーキテクチャ比で50倍に拡大するとしている。
この発表は、NVIDIAがAIチップ市場で圧倒的な存在感を維持する中で行われた。データセンター事業は同社売上の9割超を占めており、Amazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructureなどの主要クラウドプロバイダーが、2025年後半にGB300搭載インスタンスの提供を開始する予定だ。