menu
close

NVIDIA startet globalen GPU-Marktplatz zur Lösung des KI-Computing-Engpasses

NVIDIA hat DGX Cloud Lepton vorgestellt, eine KI-Plattform, die Entwickler mit Zehntausenden von GPUs über ein globales Netzwerk von Cloud-Anbietern verbindet. Der Marktplatz adressiert die zentrale Herausforderung, zuverlässige und leistungsstarke GPU-Ressourcen bereitzustellen, indem er den Zugang zu Cloud-KI-Diensten im gesamten NVIDIA-Compute-Ökosystem vereinheitlicht. Diese Initiative soll die Kluft zwischen der überwältigenden Nachfrage nach KI-Computing und dem begrenzten GPU-Angebot überbrücken und Entwicklern ermöglichen, die passenden Ressourcen für ihre spezifischen Anforderungen zu finden und zu nutzen.
NVIDIA startet globalen GPU-Marktplatz zur Lösung des KI-Computing-Engpasses

In einem bedeutenden Schritt zur Bewältigung des wachsenden GPU-Mangels in der KI-Entwicklung hat NVIDIA am 19. Mai auf der Computex 2025 in Taiwan DGX Cloud Lepton angekündigt. Die Plattform schafft einen einheitlichen Marktplatz, der KI-Entwickler mit GPU-Ressourcen verschiedener Cloud-Anbieter weltweit verbindet.

Der Zeitpunkt ist entscheidend, da die Nachfrage nach GPUs für KI-Training und -Bereitstellung ein nie dagewesenes Niveau erreicht hat. Laut Gartner-Analyst Chirag Dekate: "Nicht nur NVIDIA, sondern auch die gesamte Lieferkette von NVIDIA kann die Nachfrage kaum noch bedienen, und die Nachfrage übersteigt das Angebot bei weitem." DGX Cloud Lepton soll dieses Nadelöhr lösen, indem GPU-Ressourcen verschiedener Anbieter gebündelt werden.

Zehn NVIDIA Cloud Partner (NCPs), darunter CoreWeave, Crusoe, Lambda und SoftBank, werden über den Marktplatz GPUs der Blackwell-Architektur und anderer NVIDIA-Architekturen anbieten. Entwickler können Rechenkapazitäten in bestimmten Regionen sowohl für kurzfristige als auch für langfristige Anforderungen buchen und so strategische sowie souveräne KI-Betriebsanforderungen unterstützen.

"NVIDIA DGX Cloud Lepton verbindet unser Netzwerk globaler GPU-Cloud-Anbieter mit KI-Entwicklern", sagte Jensen Huang, Gründer und CEO von NVIDIA. "Gemeinsam mit unseren NCPs bauen wir eine KI-Fabrik im planetaren Maßstab."

Die Plattform integriert sich in den NVIDIA-Software-Stack, einschließlich NIM- und NeMo-Mikrodiensten, Blueprints und Cloud Functions, um die Entwicklung und Bereitstellung von KI-Anwendungen zu beschleunigen. Für Cloud-Anbieter stehen zudem Management-Tools mit Echtzeit-Diagnose der GPU-Gesundheit und automatisierter Ursachenanalyse zur Verfügung.

Über die reine Ressourcenvermittlung hinaus bietet DGX Cloud Lepton ein einheitliches Erlebnis über Entwicklungs-, Trainings- und Inferenz-Workflows hinweg. Entwickler können GPU-Kapazitäten direkt bei teilnehmenden Anbietern erwerben oder eigene Compute-Cluster einbringen, was die Bereitstellung in Multi-Cloud- und Hybrid-Umgebungen mit minimalem Betriebsaufwand ermöglicht.

Source:

Latest News