W odpowiedzi na narastający niedobór GPU, który utrudnia rozwój sztucznej inteligencji, NVIDIA ogłosiła podczas targów Computex 2025 w Tajwanie (19 maja) premierę DGX Cloud Lepton. Platforma ta tworzy zunifikowany rynek, łącząc deweloperów AI z zasobami GPU pochodzącymi od wielu dostawców chmurowych na całym świecie.
Moment wprowadzenia rozwiązania jest kluczowy, ponieważ popyt na GPU do trenowania i wdrażania AI osiągnął bezprecedensowy poziom. Jak zauważa analityk Gartnera, Chirag Dekate: „Nie tylko NVIDIA, ale cały łańcuch dostaw NVIDIA ledwo nadąża za popytem, który znacznie przewyższa podaż.” DGX Cloud Lepton ma rozwiązać ten problem, agregując zasoby GPU od różnych dostawców.
Dziesięciu partnerów chmurowych NVIDIA (NCP), w tym CoreWeave, Crusoe, Lambda i SoftBank, zaoferuje na rynku GPU oparte na architekturze Blackwell oraz innych rozwiązaniach NVIDIA. Deweloperzy zyskają dostęp do mocy obliczeniowej w wybranych regionach – zarówno na żądanie, jak i w dłuższej perspektywie – co wspiera strategiczne oraz suwerenne wymagania operacyjne AI.
„NVIDIA DGX Cloud Lepton łączy naszą globalną sieć dostawców chmurowych GPU z deweloperami AI” – powiedział Jensen Huang, założyciel i CEO NVIDIA. „Wspólnie z naszymi partnerami NCP budujemy fabrykę AI na skalę planetarną.”
Platforma integruje się ze stosami oprogramowania NVIDIA, takimi jak NIM i NeMo (mikrousługi), Blueprints oraz Cloud Functions, przyspieszając rozwój i wdrażanie aplikacji AI. Oferuje także oprogramowanie zarządzające dla dostawców chmurowych, zapewniające diagnostykę stanu GPU w czasie rzeczywistym i automatyczną analizę przyczyn problemów.
DGX Cloud Lepton to nie tylko połączenie zasobów – platforma zapewnia spójne doświadczenie na każdym etapie: od rozwoju, przez trening, po wdrożenie modeli AI. Deweloperzy mogą kupować moc GPU bezpośrednio od uczestniczących dostawców lub korzystać z własnych klastrów obliczeniowych, co umożliwia wdrożenia w środowiskach multi-cloud i hybrydowych przy minimalnym obciążeniu operacyjnym.