Amazon Web Services und NVIDIA vertiefen ihre langjährige strategische Partnerschaft, um die Fähigkeiten generativer KI durch neue Infrastrukturangebote voranzutreiben. Die am 11. Juni 2025 angekündigte Zusammenarbeit konzentriert sich darauf, NVIDIAs leistungsstarke Blackwell-GPU-Plattform in die Cloud-Dienste von AWS zu integrieren.
AWS wird zu den ersten Cloud-Anbietern gehören, die NVIDIAs GB200 Grace Blackwell Superchip und B100 Tensor Core GPUs anbieten. Diese Hardware der nächsten Generation wurde speziell entwickelt, um den enormen Rechenanforderungen der fortschrittlichsten KI-Workloads von heute gerecht zu werden.
„Die enge Zusammenarbeit zwischen unseren beiden Unternehmen besteht seit mehr als 13 Jahren, als wir gemeinsam die weltweit erste GPU-Cloud-Instanz auf AWS gestartet haben. Heute bieten wir die breiteste Palette an NVIDIA-GPU-Lösungen für unsere Kunden an“, sagte Adam Selipsky, CEO von AWS. Er betonte, dass NVIDIAs Grace Blackwell-Prozessor „einen bedeutenden Fortschritt im Bereich generativer KI und GPU-Computing“ darstellt.
Die Partnerschaft integriert NVIDIAs Hardware und KI-Software mit den Infrastrukturvorteilen von AWS, darunter das Nitro System für fortschrittliche Virtualisierung und Sicherheit, den Elastic Fabric Adapter (EFA) für Netzwerkverbindungen im Petabit-Bereich sowie Amazon EC2 UltraCluster für Clustering im Hyperscale-Format. Zusammen ermöglichen diese Technologien den Kunden, Multi-Billionen-Parameter-Sprachmodelle schneller und sicherer als bisherige Lösungen zu entwickeln und zu betreiben.
NVIDIAs Blackwell-Architektur stellt einen erheblichen Fortschritt in den KI-Rechenfähigkeiten dar. Die Plattform umfasst sechs transformative Technologien für beschleunigtes Computing, darunter den weltweit leistungsstärksten Chip mit 208 Milliarden Transistoren, gefertigt im eigens entwickelten 4NP-Prozess von TSMC. In der AWS-Infrastruktur verbindet die GB200 NVL72-Konfiguration 72 Blackwell-GPUs und 36 Grace-CPUs über NVIDIAs NVLink-Technologie der fünften Generation.
Während die erste Verfügbarkeit von Blackwell-basierten Systemen bei AWS ursprünglich für Ende 2024 erwartet wurde, haben Produktionsherausforderungen den Zeitplan auf Anfang 2025 verschoben. NVIDIA-CEO Jensen Huang bestätigte, dass das Unternehmen die „Massenproduktion von Blackwell-KI-Supercomputern im großen Maßstab“ erfolgreich hochgefahren habe und bereits im ersten Quartal nach Markteinführung Umsätze in Milliardenhöhe erzielt wurden.
Diese Partnerschaft kommt zu einem entscheidenden Zeitpunkt, da die Nachfrage nach KI-Infrastruktur branchenübergreifend weiter rasant wächst. Durch die Kombination ihrer jeweiligen technologischen Stärken wollen AWS und NVIDIA ihre Führungspositionen im sich schnell entwickelnden KI-Markt behaupten und Kunden die Werkzeuge an die Hand geben, um KI-Anwendungen der nächsten Generation zu entwickeln und bereitzustellen.