menu
close

AMD desafia a Nvidia com servidor Helios para IA e aliança com a OpenAI

A AMD revelou seu sistema de servidores Helios de próxima geração junto a uma parceria estratégica com a OpenAI. A nova infraestrutura em escala de rack, baseada nas futuras GPUs da Série MI400 da AMD, promete entregar melhorias de desempenho de 10x para cargas de trabalho de IA quando for lançada em 2026. O CEO da OpenAI, Sam Altman, subiu ao palco ao lado da CEO da AMD, Lisa Su, para anunciar a colaboração, confirmando que a OpenAI contribuiu com o design e adotará os novos chips da AMD para diversificar sua infraestrutura computacional.
AMD desafia a Nvidia com servidor Helios para IA e aliança com a OpenAI

A AMD está dando um passo ousado para desafiar o domínio da Nvidia no mercado de hardware para inteligência artificial ao anunciar seu novo sistema de servidores Helios para IA e uma importante parceria com a OpenAI.

Durante o evento Advancing AI 2025, realizado em San Jose no dia 12 de junho, a CEO da AMD, Lisa Su, apresentou a visão abrangente da empresa para um ecossistema aberto de IA, destacando inovações de hardware atuais e futuras. O destaque foi a prévia do Helios, a infraestrutura de IA em escala de rack da próxima geração da AMD, prevista para lançamento em 2026.

"Pela primeira vez, arquitetamos cada parte do rack como um sistema unificado", explicou Su durante a apresentação. "Pense no Helios realmente como um rack que funciona como um único e massivo motor de computação."

O sistema Helios será alimentado pelas futuras GPUs Instinct Série MI400 da AMD, que devem oferecer até 10 vezes mais desempenho para inferência em modelos Mixture of Experts em comparação com os aceleradores da geração atual. Esses chips contarão com 432GB de memória HBM4 e largura de banda de 19,6TB/s, posicionando-os como concorrentes diretos da futura plataforma Vera Rubin da Nvidia.

Em um movimento importante para o setor, o CEO da OpenAI, Sam Altman, subiu ao palco ao lado de Su para anunciar que a criadora do ChatGPT adotará os novos chips da AMD como parte de seu portfólio computacional. "Quando você começou a me contar sobre as especificações, eu pensei: não é possível, isso parece totalmente insano", comentou Altman. "Vai ser algo incrível."

A OpenAI tem fornecido feedback durante o processo de desenvolvimento das GPUs da AMD, com Altman confirmando que já estão rodando algumas cargas de trabalho no MI300X e estão "extremamente animados" com a Série MI400. Essa parceria representa uma mudança significativa para a OpenAI, que até então dependia principalmente de GPUs da Nvidia adquiridas por meio de provedores como Microsoft, Oracle e CoreWeave.

A AMD também lançou suas GPUs Instinct Série MI350 durante o evento, que estarão disponíveis no terceiro trimestre de 2025. Esses aceleradores entregam um aumento de 4x na computação de IA geração a geração e até 35x de melhoria em desempenho de inferência. A Série MI350 conta com 288GB de memória HBM3E com largura de banda de 8TB/s e suporte para novos tipos de dados FP4 e FP6 otimizados para cargas de trabalho de IA.

Diferentemente da abordagem proprietária da Nvidia, a AMD está apostando em padrões abertos e interoperabilidade. A empresa utiliza uma tecnologia de rede open source chamada UALink para seus sistemas de rack, em contraste com a NVLink proprietária da Nvidia. "O futuro da IA não será construído por uma única empresa ou em um ecossistema fechado. Ele será moldado pela colaboração aberta em toda a indústria", afirmou Su.

Apesar dos anúncios ambiciosos, as ações da AMD fecharam em queda de 2,2% após o evento, indicando que Wall Street ainda está cética quanto à capacidade da empresa de desafiar significativamente a fatia de mercado estimada em 90% da Nvidia no curto prazo. No entanto, com a previsão de que o mercado de chips para IA ultrapasse US$ 500 bilhões até 2028, a AMD está se posicionando para um crescimento de longo prazo nesse setor em rápida expansão.

Source:

Latest News