I et markant skridt for at imødekomme den voksende mangel på GPU’er, som hæmmer AI-udviklingen, annoncerede NVIDIA DGX Cloud Lepton på Computex 2025 i Taiwan den 19. maj. Platformen skaber en samlet markedsplads, der forbinder AI-udviklere med GPU-ressourcer fra flere cloud-udbydere verden over.
Tidspunktet er afgørende, da efterspørgslen på GPU’er til AI-træning og -implementering har nået hidtil usete højder. Ifølge Gartner-analytiker Chirag Dekate: "Det er ikke kun NVIDIA, men hele NVIDIA’s forsyningskæde, der knap kan følge med efterspørgslen, og efterspørgslen overstiger langt udbuddet." DGX Cloud Lepton sigter mod at løse denne flaskehals ved at samle GPU-ressourcer fra forskellige udbydere.
Ti NVIDIA Cloud Partnere (NCP’er), herunder CoreWeave, Crusoe, Lambda og SoftBank, vil tilbyde NVIDIA Blackwell og andre GPU-arkitekturer via markedspladsen. Udviklere kan få adgang til beregningskapacitet i specifikke regioner, både til behov på efterspørgsel og på længere sigt, hvilket understøtter strategiske og suveræne AI-driftkrav.
"NVIDIA DGX Cloud Lepton forbinder vores netværk af globale GPU-cloududbydere med AI-udviklere," udtaler Jensen Huang, grundlægger og CEO for NVIDIA. "Sammen med vores NCP’er bygger vi en AI-fabrik i planetarisk skala."
Platformen integrerer med NVIDIA’s software-stack, herunder NIM- og NeMo-mikrotjenester, Blueprints og Cloud Functions, for at accelerere udvikling og implementering af AI-applikationer. Den tilbyder også administrationssoftware til cloud-udbydere med realtidsdiagnostik af GPU-sundhed og automatiseret fejlanalyse.
Ud over blot at forbinde ressourcer tilbyder DGX Cloud Lepton en samlet oplevelse på tværs af udviklings-, trænings- og inferensarbejdsgange. Udviklere kan købe GPU-kapacitet direkte fra deltagende udbydere eller medbringe egne beregningsklynger, hvilket muliggør implementering på tværs af multi-cloud og hybride miljøer med minimal driftsmæssig byrde.