AMD tager et dristigt skridt for at udfordre Nvidias dominans på AI-hardwaremarkedet med annonceringen af det nye Helios AI-server-system og et betydningsfuldt partnerskab med OpenAI.
Ved Advancing AI 2025-eventet i San Jose den 12. juni præsenterede AMD's CEO Lisa Su virksomhedens omfattende vision for et åbent AI-økosystem og fremviste både nuværende og fremtidige hardware-innovationer. Højdepunktet var en forsmag på Helios, AMD's næste generations rack-skala AI-infrastruktur, som forventes lanceret i 2026.
"For første gang har vi arkitekteret hver eneste del af racket som ét samlet system," forklarede Su under præsentationen. "Tænk på Helios som et rack, der fungerer som én stor, samlet beregningsmotor."
Helios-systemet vil blive drevet af AMD's kommende Instinct MI400 Series GPU'er, som forventes at levere op til 10x ydelsesforbedring for inferens på Mixture of Experts-modeller sammenlignet med nuværende acceleratorer. Disse chips vil have 432GB HBM4-hukommelse og 19,6TB/s hukommelsesbåndbredde, hvilket placerer dem som direkte konkurrenter til Nvidias kommende Vera Rubin-platform.
I en markant brancheudvikling deltog OpenAI's CEO Sam Altman på scenen sammen med Su for at annoncere, at ChatGPT-skaberen vil tage AMD's nyeste chips i brug som en del af deres compute-portefølje. "Da du først fortalte mig om specifikationerne, tænkte jeg: Det kan simpelthen ikke passe, det lyder helt vildt," bemærkede Altman. "Det bliver noget helt fantastisk."
OpenAI har løbende givet feedback under AMD's GPU-udviklingsproces, og Altman bekræftede, at de allerede kører nogle arbejdsbelastninger på MI300X og er "ekstremt begejstrede" for MI400-serien. Dette partnerskab markerer et bemærkelsesværdigt skifte for OpenAI, som hidtil primært har været afhængig af Nvidia-GPU'er købt gennem udbydere som Microsoft, Oracle og CoreWeave.
AMD lancerede også sine Instinct MI350 Series GPU'er ved eventet, som bliver tilgængelige i tredje kvartal 2025. Disse acceleratorer leverer en 4x generation-til-generation AI-beregningforøgelse og op til 35x forbedring i inferensydelse. MI350-serien har 288GB HBM3E-hukommelse med 8TB/s båndbredde og understøtter de nye FP4- og FP6-datatyper, der er optimeret til AI-arbejdsbelastninger.
I modsætning til Nvidias proprietære tilgang lægger AMD vægt på åbne standarder og interoperabilitet. Virksomheden benytter en open source-netværksteknologi kaldet UALink til sine rack-systemer, i modsætning til Nvidias proprietære NVLink. "Fremtiden for AI bliver ikke skabt af én virksomhed eller i et lukket økosystem. Den vil blive formet af åben samarbejde på tværs af branchen," udtalte Su.
På trods af de ambitiøse annonceringer sluttede AMD-aktien 2,2% lavere efter eventet, hvilket indikerer, at Wall Street fortsat er skeptisk over for virksomhedens evne til at forstyrre Nvidias anslåede 90% markedsandel på kort sigt. Men med et AI-chipmarked, der forventes at overstige 500 milliarder dollars i 2028, positionerer AMD sig til langsigtet vækst i denne hastigt ekspanderende sektor.