AMD tar ett djärvt steg för att utmana Nvidias dominans på AI-hårdvarumarknaden genom lanseringen av sitt nya Helios AI-serversystem och ett betydande partnerskap med OpenAI.
Vid sitt "Advancing AI 2025"-event i San Jose den 12 juni presenterade AMD:s vd Lisa Su företagets omfattande vision för ett öppet AI-ekosystem och visade upp både nuvarande och framtida hårdvarunyheter. Höjdpunkten var förhandsvisningen av Helios, AMD:s nästa generations rackskale-AI-infrastruktur som planeras att släppas 2026.
"För första gången har vi designat varje del av racket som ett enhetligt system," förklarade Su under presentationen. "Tänk på Helios som ett rack som fungerar som en enda, massiv beräkningsmotor."
Helios-systemet kommer att drivas av AMD:s kommande Instinct MI400-serie GPU:er, som förväntas leverera upp till tio gånger högre prestanda för inferens på Mixture of Experts-modeller jämfört med nuvarande generations acceleratorer. Dessa chip kommer att ha 432 GB HBM4-minne och 19,6 TB/s minnesbandbredd, vilket gör dem till direkta konkurrenter till Nvidias kommande Vera Rubin-plattform.
I en betydande branschutveckling deltog OpenAI:s vd Sam Altman på scen tillsammans med Su för att meddela att ChatGPT-skaparen kommer att använda AMD:s senaste chip i sin beräkningsportfölj. "När du först berättade om specifikationerna tänkte jag: det finns ingen chans, det låter helt galet," kommenterade Altman. "Det kommer att bli något fantastiskt."
OpenAI har gett feedback under AMD:s GPU-utvecklingsprocess, och Altman bekräftade att de redan kör vissa arbetslaster på MI300X och är "extremt entusiastiska" över MI400-serien. Detta partnerskap markerar en tydlig förändring för OpenAI, som hittills främst förlitat sig på Nvidia-GPU:er köpta via leverantörer som Microsoft, Oracle och CoreWeave.
AMD lanserade även sin Instinct MI350-serie GPU:er vid eventet, vilka blir tillgängliga under tredje kvartalet 2025. Dessa acceleratorer levererar en fyrfaldig generationsförbättring i AI-beräkningskraft och upp till 35 gånger bättre inferensprestanda. MI350-serien har 288 GB HBM3E-minne med 8 TB/s bandbredd och stöd för nya datatyperna FP4 och FP6, optimerade för AI-arbetslaster.
Till skillnad från Nvidias proprietära strategi betonar AMD öppna standarder och interoperabilitet. Företaget använder en öppen nätverksteknologi kallad UALink för sina racklösningar, i kontrast till Nvidias proprietära NVLink. "Framtidens AI kommer inte att byggas av ett enskilt företag eller i ett slutet ekosystem. Den kommer att formas av öppen samverkan över hela branschen," sade Su.
Trots de ambitiösa tillkännagivandena sjönk AMD:s aktie med 2,2 procent efter eventet, vilket visar att Wall Street fortfarande är skeptiska till företagets förmåga att på kort sikt rubba Nvidias uppskattade marknadsandel på 90 procent. Men med AI-chipmarknaden beräknad att överstiga 500 miljarder dollar till 2028 positionerar sig AMD för långsiktig tillväxt inom denna snabbt expanderande sektor.