menu
close

NVIDIA präsentiert Blackwell Ultra zur Dominanz im KI-Inferenzmarkt

NVIDIA plant die Markteinführung seiner nächsten Generation von Blackwell Ultra KI-Chips in der zweiten Hälfte des Jahres 2025. Diese sind speziell darauf ausgelegt, im Bereich der KI-Inferenz zu überzeugen, wo Wettbewerber wie Amazon, AMD und Broadcom zunehmend an Boden gewinnen. Die neuen Chips versprechen bis zu 1,5-mal mehr KI-Rechenleistung als aktuelle Blackwell-GPUs und verfügen über eine deutlich erweiterte Speicherkapazität. Mit diesem strategischen Schritt könnte NVIDIA seine Vormachtstellung im rasant wachsenden Markt für KI-Inferenz sichern, der voraussichtlich den Trainingsmarkt in seiner Größe übertreffen wird.
NVIDIA präsentiert Blackwell Ultra zur Dominanz im KI-Inferenzmarkt

NVIDIA bereitet sich darauf vor, seine Position im Markt für KI-Chips mit der bevorstehenden Einführung der Blackwell Ultra-Architektur zu stärken – einem bedeutenden Upgrade der Anfang dieses Jahres vorgestellten Blackwell-Plattform.

Während NVIDIA den Markt für KI-Training dominiert hat, sieht sich das Unternehmen im Bereich der Inferenz – also dort, wo KI-Modelle zur Generierung von Antworten eingesetzt werden und nicht zum Training – zunehmender Konkurrenz gegenüber. Da KI-Anwendungen immer komplexer und weiter verbreitet werden, prognostizieren Branchenexperten ein dramatisches Wachstum des Inferenzmarktes in den kommenden Jahren. Dies zieht Wettbewerber an, die NVIDIAs Vormachtstellung herausfordern wollen. Im Gegensatz zum KI-Training, das enorme Rechenleistung in ganzen Rechenzentren erfordert, sind Inferenz-Workloads vielfältiger und können von verschiedenster spezialisierter Hardware bewältigt werden.

Die auf Blackwell Ultra basierenden Produkte sollen ab der zweiten Hälfte des Jahres 2025 bei Partnern verfügbar sein. Große Cloud-Anbieter wie Amazon Web Services, Google Cloud, Microsoft Azure und Oracle Cloud Infrastructure werden zu den ersten gehören, die Instanzen mit Blackwell Ultra anbieten. Serverhersteller wie Dell, HPE, Lenovo und Supermicro werden mit eigenen Implementierungen folgen.

Die neue Architektur nutzt NVIDIAs zweite Generation der Transformer Engine mit maßgeschneiderter Blackwell Tensor Core-Technologie, kombiniert mit Innovationen wie TensorRT-LLM und dem NeMo Framework, um sowohl Inferenz als auch Training großer Sprachmodelle zu beschleunigen. Blackwell Ultra Tensor Cores bieten eine doppelt so schnelle Beschleunigung der Attention-Layer und 1,5-mal mehr KI-Rechen-FLOPS im Vergleich zu Standard-Blackwell-GPUs.

Laut NVIDIA erreicht die Blackwell Ultra-Familie bis zu 15 PetaFLOPS dichte 4-Bit-Floating-Point-Leistung und bis zu 288 GB HBM3e-Speicher pro Chip. Dies ist besonders relevant für die KI-Inferenz, die vor allem speichergebunden ist – je mehr Speicher zur Verfügung steht, desto größere Modelle können bedient werden. Ian Buck, Vice President für Hyperscale und HPC bei NVIDIA, erklärt, dass Blackwell Ultra es ermöglichen wird, Reasoning-Modelle mit dem Zehnfachen des Durchsatzes der vorherigen Hopper-Generation zu bedienen und die Antwortzeiten von über einer Minute auf bis zu zehn Sekunden zu reduzieren.

NVIDIA steht dabei unter wachsendem Wettbewerbsdruck durch AMD, das kürzlich seine MI300-Serie für KI-Workloads vorgestellt hat und von Unternehmen angenommen wird, die angesichts von NVIDIAs Lieferengpässen nach Alternativen suchen. Für 2025 kündigte AMD zudem die Übernahme von KI-Hardware- und Softwareingenieuren von Untether AI an, um seine Inferenzfähigkeiten zu stärken. Auch Amazon verfolgt ambitionierte Ziele, die gesamte KI-Infrastruktur mit eigenen Chips wie Graviton4 und Project Rainiers Trainium zu kontrollieren und hat erfolgreich große KI-Modelle wie Claude 4 auf Nicht-NVIDIA-Hardware trainiert.

Trotz dieser Herausforderungen prognostizieren Analysten, dass NVIDIAs Rechenzentrum-Umsätze im Jahr 2025 auf 200 Milliarden US-Dollar steigen und das Unternehmen kurzfristig einen Marktanteil von etwa 80–85 % halten wird. Die Strategie des Unternehmens mit Blackwell Ultra zielt offenbar darauf ab, die Position im Inferenzmarkt zu sichern und gleichzeitig die Innovationsführerschaft im Training auszubauen – und könnte damit die Annahme widerlegen, dass Top-KI-Modelle ausschließlich auf NVIDIA-Hardware angewiesen sind.

Source: Technologyreview

Latest News