menu
close

NVIDIA lancerer Blackwell Ultra for at dominere AI-inferensmarkedet

NVIDIA er klar til at lancere sine næste generations Blackwell Ultra AI-chips i anden halvdel af 2025, specifikt designet til at excellere inden for AI-inferens, hvor konkurrenter som Amazon, AMD og Broadcom vinder frem. De nye chips lover op til 1,5 gange mere AI-beregningskraft end de nuværende Blackwell-GPU'er og har markant udvidet hukommelseskapacitet. Dette strategiske træk kan hjælpe NVIDIA med at fastholde sin dominans på det hastigt voksende AI-inferensmarked, som forventes at overstige træningsmarkedet i størrelse.
NVIDIA lancerer Blackwell Ultra for at dominere AI-inferensmarkedet

NVIDIA forbereder sig på at styrke sin position på AI-chipmarkedet med den kommende lancering af Blackwell Ultra-arkitekturen, en markant opgradering af Blackwell-platformen, der blev annonceret tidligere i år.

Selvom NVIDIA har domineret AI-træningsmarkedet, møder virksomheden stigende konkurrence på inferensområdet, hvor AI-modeller anvendes til at generere svar frem for at blive trænet. Efterhånden som AI-applikationer bliver mere komplekse og udbredte, forudser brancheeksperter, at inferensmarkedet vil vokse dramatisk i de kommende år og tiltrække konkurrenter, der ønsker at udfordre NVIDIAs dominans. I modsætning til AI-træning, som kræver enorm regnekraft på tværs af hele datacentre, er inferensarbejdsbelastninger mere varierede og kan håndteres af forskelligartet, specialiseret hardware.

Produkterne baseret på Blackwell Ultra forventes at være tilgængelige fra partnere fra anden halvdel af 2025. Store cloud-udbydere som Amazon Web Services, Google Cloud, Microsoft Azure og Oracle Cloud Infrastructure vil være blandt de første til at tilbyde Blackwell Ultra-drevne instanser, mens serverproducenter som Dell, HPE, Lenovo og Supermicro følger efter med deres egne implementeringer.

Den nye arkitektur udnytter NVIDIAs anden generations Transformer Engine med skræddersyet Blackwell Tensor Core-teknologi, kombineret med innovationer fra TensorRT-LLM og NeMo Framework for at accelerere både inferens og træning af store sprogmodeller. Blackwell Ultra Tensor Cores leverer 2x så hurtig acceleration af attention-lag og 1,5x flere AI-beregnings-FLOPS sammenlignet med standard Blackwell-GPU'er.

Ifølge NVIDIA kan Blackwell Ultra-familien levere op til 15 petaFLOPS tæt 4-bit floating-point-ydeevne og op til 288 GB HBM3e-hukommelse per chip. Dette er særligt væsentligt for AI-inferens, som primært er en hukommelsesbegrænset arbejdsbyrde – jo mere hukommelse, desto større modeller kan serviceres. Ian Buck, NVIDIAs VP for hyperscale og HPC, hævder, at Blackwell Ultra vil muliggøre, at reasoning-modeller kan serviceres med 10x så høj gennemstrømning som den tidligere Hopper-generation, hvilket reducerer svartider fra over et minut til så lidt som ti sekunder.

NVIDIA møder stigende konkurrence fra AMD, som for nylig lancerede sin MI300-serie til AI-arbejdsbyrder og har vundet indpas hos virksomheder, der søger alternativer på grund af NVIDIAs leveringsudfordringer. I 2025 annoncerede AMD opkøbet af AI-hardware- og softwareingeniører fra Untether AI for at styrke sine inferensmuligheder. Amazon demonstrerer også ambitioner om at kontrollere hele AI-infrastrukturstakken med sine Graviton4- og Project Rainiers Trainium-chips, og har med succes trænet store AI-modeller som Claude 4 på ikke-NVIDIA-hardware.

På trods af disse udfordringer forventer analytikere, at NVIDIAs datacentersalg vil vokse til 200 milliarder dollars i 2025, hvilket vil fastholde en markedsandel på cirka 80-85% på kort sigt. Virksomhedens strategi med Blackwell Ultra synes at være fokuseret på at sikre sin position på inferensmarkedet, samtidig med at der fortsat innoveres inden for træningskapaciteter – og potentielt ændre antagelsen om, at de førende AI-modeller udelukkende skal baseres på NVIDIA-hardware.

Source: Technologyreview

Latest News