menu
close

AMD daagt Nvidia uit met Helios AI-server en alliantie met OpenAI

AMD heeft zijn volgende generatie Helios AI-serversysteem onthuld, samen met een strategisch partnerschap met OpenAI. De nieuwe rack-scale infrastructuur, gebaseerd op AMD's aankomende MI400 Series GPU's, belooft bij lancering in 2026 een tienvoudige prestatieverbetering voor AI-workloads. OpenAI-CEO Sam Altman verscheen samen met AMD-CEO Lisa Su op het podium om de samenwerking aan te kondigen. OpenAI leverde input voor het ontwerp en zal AMD's nieuwste chips inzetten om zijn compute-infrastructuur te diversifiëren.
AMD daagt Nvidia uit met Helios AI-server en alliantie met OpenAI

AMD zet een gedurfde stap om Nvidia's dominantie op de AI-hardwaremarkt uit te dagen met de aankondiging van het nieuwe Helios AI-serversysteem en een belangrijk partnerschap met OpenAI.

Tijdens het Advancing AI 2025-evenement in San Jose op 12 juni onthulde AMD-CEO Lisa Su de uitgebreide visie van het bedrijf op een open AI-ecosysteem, waarbij zowel huidige als toekomstige hardware-innovaties werden getoond. Het hoogtepunt was de preview van Helios, AMD's volgende generatie rack-scale AI-infrastructuur die gepland staat voor 2026.

"Voor het eerst hebben we elk onderdeel van het rack als één samenhangend systeem ontworpen," legde Su uit tijdens de presentatie. "Zie Helios echt als een rack dat functioneert als één enorme rekenmachine."

Het Helios-systeem wordt aangedreven door AMD's aankomende Instinct MI400 Series GPU's, die naar verwachting tot 10 keer betere prestaties leveren voor inferentie op Mixture of Experts-modellen vergeleken met de huidige generatie versnellers. Deze chips beschikken over 432GB HBM4-geheugen en 19,6TB/s geheugenbandbreedte, waarmee ze directe concurrenten zijn van Nvidia's aankomende Vera Rubin-platform.

In een belangrijke ontwikkeling binnen de sector verscheen OpenAI-CEO Sam Altman samen met Su op het podium om aan te kondigen dat de maker van ChatGPT AMD's nieuwste chips zal inzetten als onderdeel van zijn compute-portfolio. "Toen je me voor het eerst over de specificaties vertelde, dacht ik: dat kan niet, dat klinkt gewoon totaal ongelooflijk," merkte Altman op. "Het wordt iets geweldigs."

OpenAI heeft feedback gegeven tijdens AMD's GPU-ontwikkelingsproces, waarbij Altman bevestigde dat ze al enkele workloads draaien op de MI300X en "uitermate enthousiast" zijn over de MI400 Series. Dit partnerschap betekent een opvallende koerswijziging voor OpenAI, dat tot nu toe vooral vertrouwde op Nvidia GPU's die via aanbieders als Microsoft, Oracle en CoreWeave werden aangeschaft.

AMD introduceerde tijdens het evenement ook de Instinct MI350 Series GPU's, die in het derde kwartaal van 2025 beschikbaar komen. Deze versnellers bieden een viervoudige generatie-op-generatie AI-rekenkracht en tot 35 keer betere inferentieprestaties. De MI350 Series beschikt over 288GB HBM3E-geheugen met 8TB/s bandbreedte en ondersteunt nieuwe FP4- en FP6-datatypen die zijn geoptimaliseerd voor AI-workloads.

In tegenstelling tot Nvidia's gesloten aanpak legt AMD de nadruk op open standaarden en interoperabiliteit. Het bedrijf gebruikt een open-source netwerktechnologie genaamd UALink voor zijn racksystemen, in tegenstelling tot Nvidia's eigen NVLink. "De toekomst van AI wordt niet door één bedrijf of in een gesloten ecosysteem gebouwd. Het wordt gevormd door open samenwerking binnen de industrie," aldus Su.

Ondanks de ambitieuze aankondigingen sloten de aandelen van AMD na het evenement 2,2% lager, wat aangeeft dat Wall Street sceptisch blijft over het vermogen van het bedrijf om op korte termijn Nvidia's geschatte marktaandeel van 90% wezenlijk te verstoren. Toch positioneert AMD zich, met een AI-chipmarkt die naar verwachting in 2028 meer dan $500 miljard waard zal zijn, voor langdurige groei in deze snelgroeiende sector.

Source:

Latest News