Dans une démarche significative pour répondre à la pénurie croissante de GPU qui freine le développement de l’IA, NVIDIA a annoncé DGX Cloud Lepton lors du Computex 2025 à Taïwan, le 19 mai. Cette plateforme crée une place de marché unifiée reliant les développeurs IA aux ressources GPU de multiples fournisseurs de cloud à travers le monde.
Le lancement intervient à un moment crucial, alors que la demande en GPU pour l’entraînement et le déploiement de l’IA atteint des niveaux sans précédent. Selon l’analyste Gartner Chirag Dekate, « Non seulement NVIDIA, mais l’ensemble de la chaîne d’approvisionnement de NVIDIA peine à suivre la demande, qui dépasse largement l’offre. » DGX Cloud Lepton vise à résoudre ce goulot d’étranglement en agrégeant les ressources GPU de différents fournisseurs.
Dix partenaires cloud de NVIDIA (NCP), dont CoreWeave, Crusoe, Lambda et SoftBank, proposeront des GPU NVIDIA Blackwell et d’autres architectures via la place de marché. Les développeurs pourront accéder à des capacités de calcul dans des régions spécifiques, aussi bien pour des besoins ponctuels que de long terme, répondant ainsi aux exigences stratégiques et souveraines des opérations IA.
« NVIDIA DGX Cloud Lepton connecte notre réseau mondial de fournisseurs de cloud GPU aux développeurs IA », a déclaré Jensen Huang, fondateur et PDG de NVIDIA. « Avec nos NCP, nous construisons ensemble une usine d’IA à l’échelle planétaire. »
La plateforme s’intègre à la pile logicielle de NVIDIA, incluant les microservices NIM et NeMo, les Blueprints et les Cloud Functions, pour accélérer le développement et le déploiement d’applications IA. Elle fournit également aux fournisseurs de cloud des outils de gestion avec diagnostics en temps réel de l’état des GPU et analyse automatisée des causes profondes.
Au-delà de la simple mise en relation de ressources, DGX Cloud Lepton offre une expérience unifiée pour les workflows de développement, d’entraînement et d’inférence. Les développeurs peuvent acheter directement de la capacité GPU auprès des fournisseurs participants ou utiliser leurs propres clusters de calcul, ce qui permet un déploiement dans des environnements multi-cloud et hybrides avec un minimum de contraintes opérationnelles.