アマゾン・ウェブ・サービス(AWS)は、AI分野における最重要インフラ課題の一つである、強力なAIプロセッサが発生させる膨大な熱の管理に対応するため、画期的な冷却ソリューションを発表した。
「In-Row Heat Exchanger(IRHX)」は、NVIDIAの最新世代GPUの冷却に特化したAWS独自のアプローチだ。これらのGPUは大規模AIモデルの学習や推論に不可欠だが、膨大なエネルギーを消費する。従来の空冷システムでは、NVIDIAのBlackwellベースのチップが求める熱負荷に対応できない。
AWSのコンピュート&機械学習サービス担当バイスプレジデント、デイブ・ブラウン氏は「従来の冷却方式ではデータセンターの床面積を大幅に占有するか、水使用量が大きく増加してしまう」と既存ソリューションの課題を説明する。IRHXは、ポンピングユニットや水分配キャビネット、ファンコイルを用いて冷却液をサーバー列の近くに循環させることで、ラック内の高密度GPUから効率的に熱を除去。大規模なデータセンター改修を必要とせず、既存施設にも導入可能だ。
この冷却技術は、AWSが新たに提供する「P6e」インスタンスと連携する。P6eはNVIDIAの「GB200 NVL72」プラットフォームを採用し、1ラックに72基のBlackwell GPUを相互接続。360ペタフロップスの計算性能と13TB超のメモリを実現し、顧客はより大規模なAIモデルを高速かつ効率的に学習できる。
さらにIRHXは、冷却液を循環させる「クローズドループ」方式を採用し、水使用量を増やすことなく環境負荷を抑制。AWSによれば、最新の冷却システムはピーク時の機械エネルギー消費を従来設計比で最大46%削減できるという。
IRHXの開発は、AWSが独自インフラ構成要素の開発を進める戦略と合致する。近年、同社は独自チップやストレージ、ネットワーク機器への投資を強化しており、これが財務面でも奏功。2025年第1四半期には、AWS部門発足以来最高の営業利益率を記録した。
マイクロソフトやグーグル、メタなど他の大手テック企業もAIワークロード向けの独自ハードウェア戦略を進めているが、AWSはグローバルなデータセンター展開と大規模カスタムハードウェア運用の実績で優位性を維持。IRHX技術は、AWSのAIインフラ分野でのリーダーシップをさらに強化し、先進的なAI計算をより効率的かつ持続可能、そして幅広い顧客に提供可能にする。