menu
close

AMD desafia a Nvidia com servidor Helios AI e aliança com a OpenAI

A AMD revelou o seu sistema de servidores Helios AI de próxima geração, juntamente com uma parceria estratégica com a OpenAI. A nova infraestrutura em escala de rack, baseada nas futuras GPUs da Série MI400 da AMD, pretende alcançar melhorias de desempenho de 10x para cargas de trabalho de IA quando for lançada em 2026. O CEO da OpenAI, Sam Altman, juntou-se à CEO da AMD, Lisa Su, para anunciar a colaboração, confirmando que a OpenAI contribuiu para o design e irá adotar os mais recentes chips da AMD para diversificar a sua infraestrutura de computação.
AMD desafia a Nvidia com servidor Helios AI e aliança com a OpenAI

A AMD está a dar um passo ousado para desafiar o domínio da Nvidia no mercado de hardware para inteligência artificial, ao anunciar o novo sistema de servidores Helios AI e uma parceria significativa com a OpenAI.

No evento Advancing AI 2025, realizado em San Jose a 12 de junho, a CEO da AMD, Lisa Su, apresentou a visão abrangente da empresa para um ecossistema de IA aberto, destacando inovações de hardware atuais e futuras. O destaque foi a antevisão do Helios, a infraestrutura de IA em escala de rack da próxima geração da AMD, com lançamento previsto para 2026.

"Pela primeira vez, arquitetámos todas as partes do rack como um sistema unificado", explicou Su durante a apresentação. "Pensem no Helios como um rack que funciona realmente como um único e massivo motor de computação."

O sistema Helios será alimentado pelas futuras GPUs Instinct Série MI400 da AMD, que deverão proporcionar até 10 vezes mais desempenho em inferência de modelos Mixture of Experts, em comparação com os aceleradores da geração atual. Estes chips contarão com 432GB de memória HBM4 e 19,6TB/s de largura de banda, posicionando-os como concorrentes diretos da futura plataforma Vera Rubin da Nvidia.

Num desenvolvimento relevante para o setor, o CEO da OpenAI, Sam Altman, juntou-se a Su em palco para anunciar que o criador do ChatGPT irá adotar os mais recentes chips da AMD como parte do seu portefólio de computação. "Quando me começaste a falar das especificações, pensei: não pode ser, parece completamente irreal", comentou Altman. "Vai ser algo incrível."

A OpenAI tem dado feedback ao longo do processo de desenvolvimento das GPUs da AMD, com Altman a confirmar que já estão a executar algumas cargas de trabalho na MI300X e estão "extremamente entusiasmados" com a Série MI400. Esta parceria representa uma mudança significativa para a OpenAI, que até agora dependia sobretudo de GPUs da Nvidia adquiridas através de fornecedores como a Microsoft, Oracle e CoreWeave.

A AMD lançou ainda as GPUs Instinct Série MI350 no evento, que estarão disponíveis no terceiro trimestre de 2025. Estes aceleradores oferecem um aumento de 4x na computação de IA geração após geração e até 35x de melhoria no desempenho de inferência. A Série MI350 dispõe de 288GB de memória HBM3E com 8TB/s de largura de banda e suporta os novos tipos de dados FP4 e FP6, otimizados para cargas de trabalho de IA.

Ao contrário da abordagem proprietária da Nvidia, a AMD está a apostar em padrões abertos e interoperabilidade. A empresa utiliza uma tecnologia de rede open-source chamada UALink para os seus sistemas de rack, em contraste com o NVLink proprietário da Nvidia. "O futuro da IA não será construído por uma única empresa ou num ecossistema fechado. Será moldado por uma colaboração aberta em toda a indústria", afirmou Su.

Apesar dos anúncios ambiciosos, as ações da AMD caíram 2,2% após o evento, indicando que Wall Street permanece cética quanto à capacidade da empresa de perturbar significativamente a quota de mercado estimada da Nvidia, de 90%, a curto prazo. No entanto, com o mercado de chips de IA a prever ultrapassar os 500 mil milhões de dólares até 2028, a AMD está a posicionar-se para um crescimento sustentado neste setor em rápida expansão.

Source:

Latest News