AMD compie una mossa audace per sfidare il dominio di Nvidia nel mercato dell’hardware AI con l’annuncio del nuovo sistema server Helios AI e una partnership di rilievo con OpenAI.
Durante l’evento Advancing AI 2025 tenutosi a San Jose il 12 giugno, la CEO di AMD Lisa Su ha svelato la visione dell’azienda per un ecosistema AI aperto, presentando innovazioni hardware attuali e future. Il punto focale è stato l’anteprima di Helios, la prossima infrastruttura AI rack-scale di AMD, il cui lancio è previsto per il 2026.
"Per la prima volta, abbiamo progettato ogni parte del rack come un sistema unificato", ha spiegato Su durante la presentazione. "Pensate a Helios come a un rack che funziona davvero come un unico, enorme motore di calcolo."
Il sistema Helios sarà alimentato dalle future GPU Instinct MI400 Series di AMD, che dovrebbero offrire fino a 10 volte le prestazioni per l’inferenza su modelli Mixture of Experts rispetto agli attuali acceleratori. Questi chip saranno dotati di 432GB di memoria HBM4 e 19,6TB/s di banda passante, posizionandosi come diretti concorrenti della futura piattaforma Vera Rubin di Nvidia.
In un importante sviluppo per il settore, il CEO di OpenAI Sam Altman è salito sul palco insieme a Su per annunciare che il creatore di ChatGPT adotterà i nuovi chip AMD come parte della propria infrastruttura di calcolo. "Quando hai iniziato a parlarmi delle specifiche, ho pensato: non è possibile, sembra davvero folle", ha commentato Altman. "Sarà qualcosa di straordinario."
OpenAI ha fornito feedback durante il processo di sviluppo delle GPU AMD, e Altman ha confermato che già oggi alcuni carichi di lavoro vengono eseguiti su MI300X e che sono "estremamente entusiasti" della serie MI400. Questa partnership segna un cambiamento significativo per OpenAI, che finora si era affidata principalmente alle GPU Nvidia acquistate tramite fornitori come Microsoft, Oracle e CoreWeave.
AMD ha inoltre lanciato le GPU Instinct MI350 Series durante l’evento, disponibili dal terzo trimestre 2025. Questi acceleratori garantiscono un aumento di 4 volte della potenza di calcolo AI rispetto alla generazione precedente e fino a 35 volte di miglioramento nelle prestazioni di inferenza. La serie MI350 offre 288GB di memoria HBM3E con 8TB/s di banda passante e supporta i nuovi tipi di dato FP4 e FP6 ottimizzati per i carichi di lavoro AI.
A differenza dell’approccio proprietario di Nvidia, AMD punta su standard aperti e interoperabilità. L’azienda utilizza una tecnologia di rete open source chiamata UALink per i propri sistemi rack, in contrasto con la NVLink proprietaria di Nvidia. "Il futuro dell’AI non sarà costruito da una sola azienda o in un ecosistema chiuso. Sarà plasmato dalla collaborazione aperta tra gli attori del settore", ha dichiarato Su.
Nonostante gli annunci ambiziosi, le azioni AMD hanno chiuso in calo del 2,2% dopo l’evento, segno che Wall Street resta scettica sulla capacità dell’azienda di intaccare in modo significativo la quota di mercato stimata al 90% di Nvidia nel breve termine. Tuttavia, con il mercato dei chip AI destinato a superare i 500 miliardi di dollari entro il 2028, AMD si sta posizionando per una crescita a lungo termine in questo settore in rapida espansione.