Dans un geste important pour contrer la pénurie croissante de GPU qui freine le développement de l’IA, NVIDIA a annoncé le lancement de DGX Cloud Lepton lors du Computex 2025 à Taïwan, le 19 mai. Cette plateforme crée un marché unifié reliant les développeurs d’IA aux ressources GPU de plusieurs fournisseurs infonuagiques à l’échelle mondiale.
Le moment est crucial, alors que la demande en GPU pour l’entraînement et le déploiement de l’IA atteint des sommets inégalés. Selon Chirag Dekate, analyste chez Gartner, « Ce n’est pas seulement NVIDIA, mais toute la chaîne d’approvisionnement de NVIDIA qui peine à suivre la cadence, et la demande dépasse largement l’offre. » DGX Cloud Lepton vise à résoudre ce goulot d’étranglement en regroupant les ressources GPU de divers fournisseurs.
Dix partenaires infonuagiques de NVIDIA (NCP), dont CoreWeave, Crusoe, Lambda et SoftBank, offriront des GPU NVIDIA Blackwell et d’autres architectures via ce marché. Les développeurs pourront accéder à de la capacité de calcul dans des régions spécifiques, tant pour des besoins ponctuels que de longue durée, soutenant ainsi des exigences opérationnelles stratégiques et souveraines en IA.
« NVIDIA DGX Cloud Lepton relie notre réseau mondial de fournisseurs de GPU infonuagiques aux développeurs d’IA », a déclaré Jensen Huang, fondateur et PDG de NVIDIA. « Avec nos partenaires NCP, nous bâtissons une usine d’IA à l’échelle planétaire. »
La plateforme s’intègre à la suite logicielle de NVIDIA, incluant les microservices NIM et NeMo, Blueprints et Cloud Functions, afin d’accélérer le développement et le déploiement d’applications d’IA. Elle fournit également aux fournisseurs infonuagiques des outils de gestion avec diagnostics en temps réel de la santé des GPU et analyse automatisée des causes profondes.
Au-delà de la simple connexion des ressources, DGX Cloud Lepton propose une expérience unifiée couvrant le développement, l’entraînement et l’inférence. Les développeurs peuvent acheter de la capacité GPU directement auprès des fournisseurs participants ou utiliser leurs propres grappes de calcul, ce qui permet un déploiement sur des environnements multi-infonuagiques et hybrides avec un minimum de contraintes opérationnelles.