AMD fait un geste audacieux pour contester la domination de Nvidia sur le marché du matériel d’intelligence artificielle avec l’annonce de son nouveau serveur IA Helios et d’un partenariat majeur avec OpenAI.
Lors de son événement Advancing AI 2025 à San Jose le 12 juin, la PDG d’AMD, Lisa Su, a présenté la vision globale de l’entreprise pour un écosystème IA ouvert, mettant en valeur tant les innovations matérielles actuelles que futures. Le point central de l’événement était l’aperçu du système Helios, une infrastructure IA de nouvelle génération à l’échelle du rack, dont la sortie est prévue pour 2026.
« Pour la première fois, nous avons conçu chaque composant du rack comme un système unifié », a expliqué Su durant la présentation. « Pensez à Helios comme à un rack qui fonctionne réellement comme un seul et immense moteur de calcul. »
Le système Helios sera propulsé par les prochains GPU Instinct MI400 Series d’AMD, qui devraient offrir jusqu’à 10 fois plus de performance pour l’inférence sur les modèles Mixture of Experts, comparativement aux accélérateurs de la génération actuelle. Ces puces intégreront 432 Go de mémoire HBM4 et une bande passante mémoire de 19,6 To/s, les positionnant en concurrence directe avec la future plateforme Vera Rubin de Nvidia.
Dans une évolution majeure de l’industrie, le PDG d’OpenAI, Sam Altman, a rejoint Lisa Su sur scène pour annoncer que le créateur de ChatGPT adoptera les plus récents processeurs d’AMD dans le cadre de son portefeuille de calcul. « Quand tu as commencé à me parler des spécifications, je me suis dit : c’est impossible, ça semble complètement fou », a commenté Altman. « Ça va être quelque chose d’incroyable. »
OpenAI a fourni des commentaires tout au long du développement des GPU d’AMD, Altman confirmant qu’ils font déjà tourner certaines charges de travail sur le MI300X et sont « extrêmement enthousiastes » à propos de la série MI400. Ce partenariat marque un changement notable pour OpenAI, qui s’appuyait principalement sur les GPU Nvidia achetés via des fournisseurs comme Microsoft, Oracle et CoreWeave.
AMD a également lancé ses GPU Instinct MI350 Series lors de l’événement, qui seront disponibles au troisième trimestre de 2025. Ces accélérateurs offrent une augmentation de 4 fois la puissance de calcul IA d’une génération à l’autre et jusqu’à 35 fois plus de performance en inférence. La série MI350 propose 288 Go de mémoire HBM3E avec une bande passante de 8 To/s et prend en charge les nouveaux types de données FP4 et FP6, optimisés pour les charges de travail en IA.
Contrairement à l’approche propriétaire de Nvidia, AMD met l’accent sur les standards ouverts et l’interopérabilité. L’entreprise utilise une technologie de réseautage open source appelée UALink pour ses systèmes de racks, à l’opposé du NVLink propriétaire de Nvidia. « L’avenir de l’IA ne sera pas bâti par une seule entreprise ni dans un écosystème fermé. Il sera façonné par une collaboration ouverte à l’échelle de l’industrie », a déclaré Su.
Malgré ces annonces ambitieuses, l’action d’AMD a terminé la journée en baisse de 2,2 % après l’événement, ce qui indique que Wall Street demeure sceptique quant à la capacité de l’entreprise à perturber de façon significative la part de marché estimée à 90 % de Nvidia à court terme. Cependant, avec un marché des puces IA qui devrait dépasser 500 milliards de dollars d’ici 2028, AMD se positionne pour une croissance à long terme dans ce secteur en pleine expansion.