I ett betydande steg för att tackla den växande GPU-bristen som hämmar AI-utvecklingen, tillkännagav NVIDIA DGX Cloud Lepton på Computex 2025 i Taiwan den 19 maj. Plattformen skapar en enhetlig marknadsplats som kopplar samman AI-utvecklare med GPU-resurser från flera molnleverantörer världen över.
Tidpunkten är avgörande då efterfrågan på GPU:er för AI-träning och -implementering har nått aldrig tidigare skådade nivåer. Enligt Gartner-analytikern Chirag Dekate: "Inte bara NVIDIA, utan hela NVIDIA:s leveranskedja har svårt att hänga med i efterfrågan, och efterfrågan överstiger vida utbudet." DGX Cloud Lepton syftar till att lösa denna flaskhals genom att samla GPU-resurser från olika leverantörer.
Tio NVIDIA Cloud Partners (NCP), däribland CoreWeave, Crusoe, Lambda och SoftBank, kommer att erbjuda NVIDIA Blackwell och andra arkitektur-GPU:er via marknadsplatsen. Utvecklare kan få tillgång till datorkapacitet i specifika regioner för både behov på begäran och långsiktiga behov, vilket stödjer strategiska och suveräna AI-operativa krav.
"NVIDIA DGX Cloud Lepton kopplar samman vårt nätverk av globala GPU-molnleverantörer med AI-utvecklare," säger Jensen Huang, grundare och VD för NVIDIA. "Tillsammans med våra NCP:er bygger vi en AI-fabrik i planetär skala."
Plattformen integreras med NVIDIA:s mjukvarustack, inklusive NIM och NeMo-mikrotjänster, Blueprints och Cloud Functions, för att påskynda utveckling och implementering av AI-applikationer. Den erbjuder även hanteringsmjukvara för molnleverantörer med realtidsdiagnostik av GPU-hälsa och automatiserad rotorsaksanalys.
Utöver att bara koppla samman resurser erbjuder DGX Cloud Lepton en enhetlig upplevelse för utveckling, träning och inferensflöden. Utvecklare kan köpa GPU-kapacitet direkt från deltagande leverantörer eller använda sina egna datorkluster, vilket möjliggör implementering i multi-moln- och hybridmiljöer med minimala operativa hinder.