AI開発を悩ませるGPU不足の深刻化を受け、NVIDIAは2025年5月19日に台湾で開催されたComputexにて「DGX Cloud Lepton」を発表した。このプラットフォームは、世界中の複数のクラウドプロバイダーが保有するGPUリソースとAI開発者を結ぶ統合マーケットプレイスを構築する。
GPU需要がAIの学習や運用でかつてない水準に達する中、ガートナーのアナリスト、チラーグ・デカテ氏は「NVIDIAだけでなく、そのサプライチェーン全体が需要に追いつけていない。需要は供給をはるかに上回っている」と指摘する。DGX Cloud Leptonは、複数のプロバイダーのGPUリソースを集約することで、このボトルネックの解消を目指す。
CoreWeave、Crusoe、Lambda、ソフトバンクなど10社のNVIDIAクラウドパートナー(NCP)が、NVIDIA BlackwellなどのアーキテクチャGPUを本マーケットプレイスを通じて提供する。開発者は、特定地域でのオンデマンドや長期利用など、戦略的かつ主権性を重視したAI運用要件にも対応しながら、計算リソースへアクセスできる。
NVIDIA創業者兼CEOのジェンスン・フアン氏は「NVIDIA DGX Cloud Leptonは、グローバルなGPUクラウドプロバイダーのネットワークとAI開発者をつなぎます。NCP各社と共に、地球規模のAIファクトリーを構築していきます」とコメントしている。
本プラットフォームは、NIMやNeMoマイクロサービス、Blueprints、Cloud FunctionsなどNVIDIAのソフトウェアスタックと統合し、AIアプリケーションの開発・展開を加速する。また、クラウドプロバイダー向けには、リアルタイムのGPUヘルス診断や自動根本原因分析などの管理ソフトウェアも提供される。
単なるリソースの接続にとどまらず、DGX Cloud Leptonは開発・学習・推論の各ワークフローを横断した統一的な体験を提供。開発者は参加プロバイダーから直接GPUキャパシティを購入することも、自社の計算クラスターを持ち込むことも可能で、マルチクラウドやハイブリッド環境への展開も最小限の運用負荷で実現できる。