menu
close

NVIDIA Avtäcker Blackwell Ultra för att Dominera Marknaden för AI-inferens

NVIDIA planerar att lansera sina nästa generations Blackwell Ultra AI-chip under andra halvan av 2025, särskilt utformade för att utmärka sig inom AI-inferens där konkurrenter som Amazon, AMD och Broadcom vinner mark. De nya chipen utlovar upp till 1,5 gånger högre AI-beräkningsprestanda än dagens Blackwell-GPU:er och har betydligt utökad minneskapacitet. Detta strategiska drag kan hjälpa NVIDIA att behålla sitt övertag på den snabbt växande marknaden för AI-inferens, som förväntas bli betydligt större än träningsmarknaden.
NVIDIA Avtäcker Blackwell Ultra för att Dominera Marknaden för AI-inferens

NVIDIA förbereder sig för att stärka sin position på AI-chipmarknaden med den kommande lanseringen av Blackwell Ultra-arkitekturen, en betydande uppgradering av Blackwell-plattformen som presenterades tidigare i år.

Även om NVIDIA har dominerat marknaden för AI-träning möter företaget allt hårdare konkurrens inom inferensområdet, där AI-modeller används för att generera svar snarare än att tränas. I takt med att AI-applikationer blir mer komplexa och utbredda förutspår branschexperter att inferensmarknaden kommer att växa dramatiskt under de kommande åren, vilket lockar konkurrenter som vill utmana NVIDIAs dominans. Till skillnad från AI-träning, som kräver enorm datorkraft i hela datacenter, är inferensarbetslaster mer varierade och kan hanteras av olika specialiserad hårdvara.

Produkter baserade på Blackwell Ultra förväntas bli tillgängliga från partners under andra halvan av 2025. Stora molnleverantörer som Amazon Web Services, Google Cloud, Microsoft Azure och Oracle Cloud Infrastructure kommer att vara bland de första att erbjuda instanser med Blackwell Ultra, och serverleverantörer som Dell, HPE, Lenovo och Supermicro följer med egna implementationer.

Den nya arkitekturen utnyttjar NVIDIAs andra generationens Transformer Engine med skräddarsydd Blackwell Tensor Core-teknik, i kombination med innovationer från TensorRT-LLM och NeMo Framework för att accelerera både inferens och träning av stora språkmodeller. Blackwell Ultra Tensor Cores levererar dubbelt så hög acceleration för attention-lager och 1,5 gånger fler AI-beräknings-FLOPS jämfört med vanliga Blackwell-GPU:er.

Enligt NVIDIA har Blackwell Ultra-familjen upp till 15 petaFLOPS tät 4-bitars flyttalsberäkning och upp till 288 GB HBM3e-minne per chip. Detta är särskilt viktigt för AI-inferens, som främst är en minnesbunden arbetslast—ju mer minne som finns tillgängligt, desto större modeller kan användas. Ian Buck, NVIDIAs VP för hyperscale och HPC, hävdar att Blackwell Ultra möjliggör att resonemangsmodeller kan serveras med tio gånger högre genomströmning än föregående Hopper-generation, vilket minskar svarstiderna från över en minut till så lite som tio sekunder.

NVIDIA möter växande konkurrens från AMD, som nyligen lanserade sin MI300-serie för AI-arbetslaster och har fått ökad användning bland företag som söker alternativ på grund av NVIDIAs leveransbegränsningar. Under 2025 meddelade AMD också att de förvärvat AI-hårdvaru- och mjukvaruingenjörer från Untether AI för att stärka sina inferensmöjligheter. Amazon visar också ambitioner att kontrollera hela AI-infrastrukturstacken med sina Graviton4- och Project Rainier Trainium-chip, och har framgångsrikt tränat stora AI-modeller som Claude 4 på hårdvara som inte är från NVIDIA.

Trots dessa utmaningar förutspår analytiker att NVIDIAs datacenterförsäljning kommer att växa till 200 miljarder dollar år 2025, med bibehållen marknadsandel på cirka 80–85 % på kort sikt. Företagets strategi med Blackwell Ultra verkar fokusera på att säkra sin position på inferensmarknaden samtidigt som man fortsätter att driva innovation inom träning, vilket potentiellt kan förändra antagandet att de ledande AI-modellerna måste förlita sig uteslutande på NVIDIAs hårdvara.

Source: Technologyreview

Latest News