menu
close

AWS、次世代AIチップ向け独自冷却システムを発表

アマゾン・ウェブ・サービス(AWS)は、NVIDIAの高消費電力GPU「Blackwell」向けに設計されたハイブリッド液体・空気冷却システム「In-Row Heat Exchanger(IRHX)」を開発した。この革新的なソリューションは、高密度GPUラックが発生させる極端な熱を、データセンターの大規模改修や水使用量の増加なしに解決する。AWSは、この技術を活用し、72基のGPUを1ラックに集約したNVIDIA「GB200 NVL72」プラットフォーム搭載の新インスタンス「P6e」を提供。かつてないAI計算能力を実現する。
AWS、次世代AIチップ向け独自冷却システムを発表

アマゾン・ウェブ・サービス(AWS)は、AI分野における最重要インフラ課題の一つである、強力なAIプロセッサが発生させる膨大な熱の管理に対応するため、画期的な冷却ソリューションを発表した。

「In-Row Heat Exchanger(IRHX)」は、NVIDIAの最新世代GPUの冷却に特化したAWS独自のアプローチだ。これらのGPUは大規模AIモデルの学習や推論に不可欠だが、膨大なエネルギーを消費する。従来の空冷システムでは、NVIDIAのBlackwellベースのチップが求める熱負荷に対応できない。

AWSのコンピュート&機械学習サービス担当バイスプレジデント、デイブ・ブラウン氏は「従来の冷却方式ではデータセンターの床面積を大幅に占有するか、水使用量が大きく増加してしまう」と既存ソリューションの課題を説明する。IRHXは、ポンピングユニットや水分配キャビネット、ファンコイルを用いて冷却液をサーバー列の近くに循環させることで、ラック内の高密度GPUから効率的に熱を除去。大規模なデータセンター改修を必要とせず、既存施設にも導入可能だ。

この冷却技術は、AWSが新たに提供する「P6e」インスタンスと連携する。P6eはNVIDIAの「GB200 NVL72」プラットフォームを採用し、1ラックに72基のBlackwell GPUを相互接続。360ペタフロップスの計算性能と13TB超のメモリを実現し、顧客はより大規模なAIモデルを高速かつ効率的に学習できる。

さらにIRHXは、冷却液を循環させる「クローズドループ」方式を採用し、水使用量を増やすことなく環境負荷を抑制。AWSによれば、最新の冷却システムはピーク時の機械エネルギー消費を従来設計比で最大46%削減できるという。

IRHXの開発は、AWSが独自インフラ構成要素の開発を進める戦略と合致する。近年、同社は独自チップやストレージ、ネットワーク機器への投資を強化しており、これが財務面でも奏功。2025年第1四半期には、AWS部門発足以来最高の営業利益率を記録した。

マイクロソフトやグーグル、メタなど他の大手テック企業もAIワークロード向けの独自ハードウェア戦略を進めているが、AWSはグローバルなデータセンター展開と大規模カスタムハードウェア運用の実績で優位性を維持。IRHX技術は、AWSのAIインフラ分野でのリーダーシップをさらに強化し、先進的なAI計算をより効率的かつ持続可能、そして幅広い顧客に提供可能にする。

Source: Shrm

Latest News