アマゾンウェブサービス(AWS)とNVIDIAは、生成AIの能力を強化するための新たなインフラ提供を通じて、長年にわたる戦略的パートナーシップをさらに深化させる。2025年6月11日に発表されたこの協業は、NVIDIAの強力なBlackwell GPUプラットフォームをAWSクラウドサービスに導入することが中心となっている。
AWSは、NVIDIAのGB200 Grace Blackwellスーパー チップおよびB100 Tensor Core GPUを提供する最初のクラウドプロバイダーの一つとなる予定だ。この次世代ハードウェアは、現代の最先端AIワークロードが要求する膨大な計算能力に特化して設計されている。
AWSのCEO、アダム・セリプスキー氏は「両社の深い協業は13年以上前に遡り、世界初のGPUクラウドインスタンスをAWSで共同提供したことに始まります。現在では、顧客向けに最も幅広いNVIDIA GPUソリューションを展開しています」と述べた。また、NVIDIAのGrace Blackwellプロセッサについて「生成AIとGPUコンピューティングにおける大きな前進」と強調した。
このパートナーシップでは、NVIDIAのハードウェアとAIソフトウェアに、AWSのインフラ優位性――高度な仮想化とセキュリティを実現するNitro System、ペタビット級ネットワーキングを可能にするElastic Fabric Adapter(EFA)、大規模クラスタリングを実現するAmazon EC2 UltraCluster――が統合される。これらの技術により、顧客は従来よりも高速かつ安全に、数兆パラメータ規模の大規模言語モデルを構築・運用できるようになる。
NVIDIAのBlackwellアーキテクチャは、AIコンピューティング能力における大きな飛躍を示している。このプラットフォームは、2080億個のトランジスタを搭載した世界最強のチップなど、加速コンピューティングのための6つの革新的技術を備え、TSMCのカスタム4NPプロセスで製造されている。AWSのインフラに導入される際は、GB200 NVL72構成により、72基のBlackwell GPUと36基のGrace CPUがNVIDIAの第5世代NVLink技術で接続される。
Blackwell搭載システムのAWSでの初期提供は2024年末を予定していたが、生産上の課題により2025年初頭に延期された。NVIDIAのCEO、ジェンスン・フアン氏は「Blackwell AIスーパーコンピュータの大規模量産を成功裏に立ち上げ、初四半期で数十億ドル規模の売上を達成した」と述べている。
このパートナーシップは、AIインフラへの需要が産業界全体で急速に高まる中で発表された。AWSとNVIDIAは、それぞれの技術的強みを結集することで、進化の著しいAI分野でリーダーシップを維持しつつ、顧客が次世代AIアプリケーションの開発・展開に必要なツールを提供することを目指している。