AMDは、AIハードウェア市場におけるNvidiaの支配に挑むべく、新たなHelios AIサーバーシステムとOpenAIとの重要なパートナーシップを発表した。
6月12日、サンノゼで開催された「Advancing AI 2025」イベントにて、AMDのリサ・スーCEOは、オープンなAIエコシステムに向けた同社の包括的なビジョンと、現行および将来のハードウェアイノベーションを披露した。目玉となったのは、2026年にリリース予定の次世代ラックスケールAIインフラ「Helios」のプレビューだった。
「今回初めて、ラックのすべての要素を統合されたシステムとして設計しました」とスー氏はプレゼンテーションで説明した。「Heliosは、まるで1つの巨大な計算エンジンのように機能するラックだと考えてください。」
Heliosシステムは、AMDの次期Instinct MI400シリーズGPUを搭載し、現行世代のアクセラレータと比べてMixture of Expertsモデルの推論で最大10倍の性能向上が期待されている。これらのチップは432GBのHBM4メモリと19.6TB/sのメモリ帯域幅を備え、Nvidiaの次世代Vera Rubinプラットフォームの直接的な競合となる。
業界にとって大きな動きとして、OpenAIのサム・アルトマンCEOがスー氏と共に登壇し、ChatGPTの開発元であるOpenAIがAMDの最新チップを計算インフラの一部として採用することを発表した。「最初に仕様を聞いたときは、そんなことあり得ない、まるで夢物語のようだと思いました」とアルトマン氏は述べた。「これは本当に素晴らしいことになるでしょう。」
OpenAIはAMDのGPU開発プロセスにフィードバックを提供しており、既に一部のワークロードをMI300X上で稼働させているとアルトマン氏は明かした。また、MI400シリーズに対して「非常に大きな期待を寄せている」と述べている。この提携は、これまで主にMicrosoft、Oracle、CoreWeaveなどを通じてNvidiaのGPUに依存してきたOpenAIにとって、大きな転換点となる。
AMDはまた、イベントでInstinct MI350シリーズGPUも発表した。これは2025年第3四半期に提供開始予定で、世代ごとに4倍のAI計算性能向上、推論性能では最大35倍の向上を実現する。MI350シリーズは288GBのHBM3Eメモリ(8TB/s帯域幅)を搭載し、AIワークロード向けに最適化された新しいFP4およびFP6データ型をサポートする。
Nvidiaの独自路線とは対照的に、AMDはオープンスタンダードと相互運用性を強調している。同社はラックシステムにオープンソースのネットワーキング技術「UALink」を採用しており、Nvidiaの独自技術「NVLink」とは一線を画す。「AIの未来は、1社やクローズドなエコシステムだけで築かれるものではありません。業界全体のオープンな協業によって形作られるのです」とスー氏は語った。
こうした野心的な発表にもかかわらず、イベント後のAMD株価は2.2%下落し、ウォール街は同社が短期的にNvidiaの推定90%の市場シェアを大きく揺るがすことに懐疑的な姿勢を示した。しかし、AIチップ市場は2028年までに5,000億ドルを超えると予測されており、AMDは急成長するこの分野で長期的な成長を目指している。