AMD da un paso audaz para desafiar el dominio de Nvidia en el mercado de hardware para inteligencia artificial con el anuncio de su nuevo sistema de servidores Helios AI y una importante colaboración con OpenAI.
En su evento Advancing AI 2025 celebrado en San José el 12 de junio, la CEO de AMD, Lisa Su, presentó la visión integral de la compañía para un ecosistema de IA abierto, mostrando tanto innovaciones actuales como futuras en hardware. El plato fuerte fue la presentación preliminar de Helios, la próxima infraestructura de IA a escala de rack de AMD, cuyo lanzamiento está previsto para 2026.
"Por primera vez, hemos diseñado cada parte del rack como un sistema unificado", explicó Su durante la presentación. "Pensad en Helios como un rack que realmente funciona como un único y enorme motor de computación".
El sistema Helios estará impulsado por las futuras GPU Instinct MI400 Series de AMD, que se espera que ofrezcan hasta 10 veces más rendimiento en inferencia para modelos Mixture of Experts en comparación con los aceleradores de la generación actual. Estos chips contarán con 432 GB de memoria HBM4 y un ancho de banda de memoria de 19,6 TB/s, posicionándolos como competidores directos de la próxima plataforma Vera Rubin de Nvidia.
En un movimiento relevante para el sector, el CEO de OpenAI, Sam Altman, subió al escenario junto a Su para anunciar que el creador de ChatGPT adoptará los últimos chips de AMD como parte de su cartera de computación. "Cuando empezaste a contarme las especificaciones, pensé: no puede ser, suena totalmente increíble", comentó Altman. "Va a ser algo impresionante".
OpenAI ha estado proporcionando comentarios durante el proceso de desarrollo de las GPU de AMD, y Altman confirmó que ya están ejecutando algunas cargas de trabajo en la MI300X y que están "extremadamente entusiasmados" con la serie MI400. Esta colaboración supone un cambio notable para OpenAI, que hasta ahora ha dependido principalmente de GPU de Nvidia adquiridas a través de proveedores como Microsoft, Oracle y CoreWeave.
AMD también presentó en el evento sus GPU Instinct MI350 Series, que estarán disponibles en el tercer trimestre de 2025. Estos aceleradores ofrecen un aumento de 4 veces en computación de IA respecto a la generación anterior y hasta 35 veces más rendimiento en inferencia. La serie MI350 cuenta con 288 GB de memoria HBM3E con un ancho de banda de 8 TB/s y es compatible con los nuevos tipos de datos FP4 y FP6, optimizados para cargas de trabajo de IA.
A diferencia del enfoque propietario de Nvidia, AMD apuesta por los estándares abiertos y la interoperabilidad. La compañía utiliza una tecnología de red de código abierto llamada UALink para sus sistemas de rack, en contraste con la NVLink propietaria de Nvidia. "El futuro de la IA no lo construirá una sola empresa ni se desarrollará en un ecosistema cerrado. Se forjará mediante la colaboración abierta en toda la industria", afirmó Su.
A pesar de los anuncios ambiciosos, las acciones de AMD cerraron con una caída del 2,2% tras el evento, lo que indica que Wall Street sigue siendo escéptico respecto a la capacidad de la empresa para alterar significativamente la cuota de mercado estimada del 90% de Nvidia a corto plazo. Sin embargo, con la previsión de que el mercado de chips de IA supere los 500.000 millones de dólares en 2028, AMD se posiciona para un crecimiento a largo plazo en este sector en rápida expansión.