Sa isang mahalagang hakbang upang tugunan ang lumalalang kakulangan ng GPU na kinakaharap ng AI development, inanunsyo ng NVIDIA ang DGX Cloud Lepton sa Computex 2025 sa Taiwan noong Mayo 19. Ang platform na ito ay lumilikha ng isang pinag-isang marketplace na nag-uugnay sa mga AI developer sa GPU resources mula sa iba't ibang cloud provider sa buong mundo.
Napapanahon ang paglulunsad dahil umabot na sa hindi pa nararanasang antas ang demand para sa GPU para sa AI training at deployment. Ayon kay Gartner analyst Chirag Dekate, "Hindi lang NVIDIA, kundi pati ang supply chain ng NVIDIA ay halos hindi makasabay sa demand, at ang demand ay malayo sa supply." Nilalayon ng DGX Cloud Lepton na solusyunan ang bottleneck na ito sa pamamagitan ng pagsasama-sama ng GPU resources mula sa iba't ibang provider.
Sampung NVIDIA Cloud Partners (NCPs) kabilang ang CoreWeave, Crusoe, Lambda, at SoftBank ang mag-aalok ng NVIDIA Blackwell at iba pang architecture GPUs sa marketplace. Maaaring makakuha ang mga developer ng compute capacity sa partikular na mga rehiyon para sa parehong on-demand at pangmatagalang pangangailangan, na sumusuporta sa mga estratehiko at sovereign na pangangailangan sa operasyon ng AI.
"Ikinokonekta ng NVIDIA DGX Cloud Lepton ang aming network ng mga pandaigdigang GPU cloud provider sa mga AI developer," ani Jensen Huang, tagapagtatag at CEO ng NVIDIA. "Kasama ang aming mga NCP, bumubuo kami ng isang planetary-scale na AI factory."
Isinasama ng platform ang software stack ng NVIDIA, kabilang ang NIM at NeMo microservices, Blueprints, at Cloud Functions, upang pabilisin ang pagbuo at deployment ng AI applications. Nagbibigay din ito ng management software para sa mga cloud provider na may real-time na GPU health diagnostics at automated root-cause analysis.
Higit pa sa simpleng pag-uugnay ng resources, nag-aalok ang DGX Cloud Lepton ng pinag-isang karanasan sa buong development, training, at inference workflows. Maaaring direktang bumili ang mga developer ng GPU capacity mula sa mga kasaling provider o gamitin ang sarili nilang compute clusters, na nagpapahintulot ng deployment sa multi-cloud at hybrid na mga environment nang may minimal na operational burden.