menu
close

AMD desafía a Nvidia con el servidor Helios AI y alianza con OpenAI

AMD ha presentado su sistema de servidor Helios AI de próxima generación junto con una alianza estratégica con OpenAI. La nueva infraestructura a escala de rack, basada en las próximas GPU de la Serie MI400 de AMD, busca ofrecer mejoras de rendimiento de hasta 10 veces para cargas de trabajo de IA cuando se lance en 2026. El CEO de OpenAI, Sam Altman, se unió a la CEO de AMD, Lisa Su, para anunciar la colaboración, confirmando que OpenAI brindó aportes en el diseño y adoptará los chips más recientes de AMD para diversificar su infraestructura de cómputo.
AMD desafía a Nvidia con el servidor Helios AI y alianza con OpenAI

AMD está dando un paso audaz para desafiar el dominio de Nvidia en el mercado de hardware para inteligencia artificial con el anuncio de su nuevo sistema de servidor Helios AI y una importante alianza con OpenAI.

En su evento Advancing AI 2025 en San José el 12 de junio, la CEO de AMD, Lisa Su, presentó la visión integral de la compañía para un ecosistema de IA abierto, mostrando innovaciones de hardware tanto actuales como futuras. El punto central fue la presentación preliminar de Helios, la infraestructura de IA a escala de rack de próxima generación de AMD, cuyo lanzamiento está previsto para 2026.

"Por primera vez, diseñamos cada parte del rack como un sistema unificado", explicó Su durante la presentación. "Piensen en Helios realmente como un rack que funciona como un solo y enorme motor de cómputo".

El sistema Helios estará impulsado por las próximas GPU Instinct Serie MI400 de AMD, que se espera ofrezcan hasta 10 veces más rendimiento para inferencia en modelos Mixture of Experts en comparación con los aceleradores de la generación actual. Estos chips contarán con 432 GB de memoria HBM4 y un ancho de banda de memoria de 19.6 TB/s, posicionándolos como competidores directos de la próxima plataforma Vera Rubin de Nvidia.

En un desarrollo relevante para la industria, el CEO de OpenAI, Sam Altman, se unió a Su en el escenario para anunciar que el creador de ChatGPT adoptará los chips más recientes de AMD como parte de su portafolio de cómputo. "Cuando me empezaste a contar sobre las especificaciones, pensé: no hay manera, eso suena totalmente loco", comentó Altman. "Va a ser algo increíble".

OpenAI ha estado brindando retroalimentación durante el proceso de desarrollo de las GPU de AMD, y Altman confirmó que ya están ejecutando algunas cargas de trabajo en la MI300X y están "sumamente emocionados" por la Serie MI400. Esta alianza marca un cambio notable para OpenAI, que hasta ahora ha dependido principalmente de GPU Nvidia adquiridas a través de proveedores como Microsoft, Oracle y CoreWeave.

AMD también lanzó en el evento sus GPU Instinct Serie MI350, que estarán disponibles en el tercer trimestre de 2025. Estos aceleradores ofrecen un aumento de 4 veces en cómputo de IA generación tras generación y hasta 35 veces de mejora en el rendimiento de inferencia. La Serie MI350 cuenta con 288 GB de memoria HBM3E con un ancho de banda de 8 TB/s y es compatible con los nuevos tipos de datos FP4 y FP6, optimizados para cargas de trabajo de IA.

A diferencia del enfoque propietario de Nvidia, AMD está apostando por estándares abiertos e interoperabilidad. La compañía utiliza una tecnología de red de código abierto llamada UALink para sus sistemas de rack, en contraste con la tecnología propietaria NVLink de Nvidia. "El futuro de la IA no será construido por una sola empresa ni en un ecosistema cerrado. Será moldeado por la colaboración abierta en toda la industria", afirmó Su.

A pesar de los anuncios ambiciosos, las acciones de AMD cerraron con una baja del 2.2% tras el evento, lo que indica que Wall Street sigue siendo escéptico sobre la capacidad de la compañía para interrumpir significativamente la cuota de mercado estimada del 90% de Nvidia en el corto plazo. Sin embargo, con el mercado de chips de IA proyectado a superar los 500 mil millones de dólares para 2028, AMD se está posicionando para un crecimiento a largo plazo en este sector en rápida expansión.

Source:

Latest News