menu
close

NVIDIA onthult Blackwell Ultra om AI-inferentie-markt te domineren

NVIDIA brengt in de tweede helft van 2025 zijn volgende generatie Blackwell Ultra AI-chips uit, speciaal ontworpen om uit te blinken in AI-inferentie, een gebied waar concurrenten als Amazon, AMD en Broadcom terrein winnen. De nieuwe chips beloven tot 1,5 keer meer AI-rekenkracht dan de huidige Blackwell-GPU's en beschikken over aanzienlijk meer geheugen. Met deze strategische zet kan NVIDIA zijn dominantie behouden in de snelgroeiende AI-inferentie-markt, die naar verwachting uiteindelijk groter zal worden dan de markt voor AI-training.
NVIDIA onthult Blackwell Ultra om AI-inferentie-markt te domineren

NVIDIA bereidt zich voor om zijn positie op de AI-chipmarkt te versterken met de aanstaande introductie van de Blackwell Ultra-architectuur, een aanzienlijke upgrade van het eerder dit jaar aangekondigde Blackwell-platform.

Hoewel NVIDIA de AI-trainingsmarkt domineert, krijgt het bedrijf steeds meer concurrentie op het gebied van inferentie, waar AI-modellen worden ingezet om antwoorden te genereren in plaats van getraind te worden. Naarmate AI-toepassingen complexer en wijdverspreider worden, voorspellen branche-experts dat de inferentie-markt de komende jaren sterk zal groeien, waardoor concurrenten worden aangetrokken die NVIDIA's dominantie willen uitdagen. In tegenstelling tot AI-training, die enorme rekenkracht vereist in complete datacenters, zijn inferentie-workloads diverser en kunnen ze door verschillende gespecialiseerde hardware worden uitgevoerd.

Verwacht wordt dat producten op basis van Blackwell Ultra vanaf de tweede helft van 2025 beschikbaar zijn bij partners. Grote cloudproviders zoals Amazon Web Services, Google Cloud, Microsoft Azure en Oracle Cloud Infrastructure zullen tot de eersten behoren die Blackwell Ultra-instances aanbieden, gevolgd door serverfabrikanten als Dell, HPE, Lenovo en Supermicro met hun eigen implementaties.

De nieuwe architectuur maakt gebruik van NVIDIA's tweede generatie Transformer Engine met aangepaste Blackwell Tensor Core-technologie, gecombineerd met innovaties als TensorRT-LLM en het NeMo Framework om zowel inferentie als training van grote taalmodellen te versnellen. Blackwell Ultra Tensor Cores bieden 2x snellere attention-laag-acceleratie en 1,5x meer AI-reken-FLOPS vergeleken met standaard Blackwell-GPU's.

Volgens NVIDIA biedt de Blackwell Ultra-familie tot 15 petaFLOPS aan dense 4-bit floating-point-prestaties en tot 288 GB HBM3e-geheugen per chip. Dit is vooral belangrijk voor AI-inferentie, dat vooral een geheugenintensieve workload is—hoe meer geheugen beschikbaar is, hoe groter het model dat kan worden bediend. Ian Buck, NVIDIA's VP van hyperscale en HPC, stelt dat Blackwell Ultra het mogelijk maakt om redeneermodellen met 10x de doorvoersnelheid van de vorige Hopper-generatie te draaien, waardoor de responstijd daalt van meer dan een minuut naar slechts tien seconden.

NVIDIA ziet de concurrentie toenemen van AMD, dat onlangs zijn MI300-serie voor AI-workloads lanceerde en wordt omarmd door bedrijven die alternatieven zoeken vanwege NVIDIA's leveringsproblemen. In 2025 kondigde AMD de overname aan van AI-hardware- en software-ingenieurs van Untether AI om zijn inferentiecapaciteiten te versterken. Ook Amazon toont ambitie om de volledige AI-infrastructuurstack te beheersen met zijn Graviton4- en Project Rainier's Trainium-chips, waarmee succesvolle training van grote AI-modellen zoals Claude 4 op niet-NVIDIA-hardware is gerealiseerd.

Ondanks deze uitdagingen voorspellen analisten dat NVIDIA's datacenterverkopen in 2025 zullen groeien tot $200 miljard, waarmee het bedrijf op korte termijn ongeveer 80-85% marktaandeel behoudt. Met de Blackwell Ultra lijkt NVIDIA zich te richten op het veiligstellen van zijn positie in de inferentie-markt, terwijl het blijft innoveren op het gebied van training. Dit zou de aanname kunnen veranderen dat top-AI-modellen uitsluitend afhankelijk moeten zijn van NVIDIA-hardware.

Source: Technologyreview

Latest News