menu
close

OpenAI Diversifica Estratégia de Chips e Esclarece Testes com TPUs do Google

A OpenAI confirmou que está testando as unidades de processamento tensorial (TPUs) do Google, mas não há planos imediatos para implantação em larga escala. A líder em IA utiliza ativamente GPUs da Nvidia e chips da AMD para atender à crescente demanda computacional, enquanto desenvolve seu próprio silício personalizado. Essa diversificação estratégica destaca a importância crítica da infraestrutura de chips no competitivo cenário de IA.
OpenAI Diversifica Estratégia de Chips e Esclarece Testes com TPUs do Google

A OpenAI esclareceu sua posição em relação aos chips de IA do Google, afirmando que, embora os testes iniciais com as unidades de processamento tensorial (TPUs) do Google estejam em andamento, não há planos imediatos para utilizá-las em larga escala.

Em 30 de junho, um porta-voz da OpenAI respondeu a relatos que sugeriam que a empresa passaria a utilizar os chips desenvolvidos internamente pelo Google para alimentar seus produtos. O esclarecimento veio após notícias anteriores indicarem que a OpenAI havia começado a alugar TPUs do Google por meio do Google Cloud, com o objetivo potencial de reduzir os custos de computação de inferência — que, segundo informações, consomem mais de 50% do orçamento computacional da OpenAI.

A líder em IA adota uma estratégia multifacetada de chips para administrar suas necessidades computacionais em rápido crescimento. Atualmente, a OpenAI depende fortemente das GPUs da Nvidia, que dominam cerca de 80% do mercado de chips para IA. No entanto, a empresa tem incorporado ativamente os chips de IA da AMD em sua infraestrutura. Em um movimento significativo, o CEO da OpenAI, Sam Altman, apareceu ao lado da CEO da AMD, Lisa Su, no evento Advancing AI da AMD em junho de 2025, confirmando a adoção dos chips MI300X da AMD pela OpenAI e o interesse nas futuras plataformas da série MI400.

Paralelamente, a OpenAI avança substancialmente no desenvolvimento de seu próprio chip personalizado de IA. A equipe interna da empresa, liderada por Richard Ho, ex-chefe de TPUs do Google, já conta com cerca de 40 engenheiros trabalhando em colaboração com a Broadcom. Essa iniciativa de silício personalizado está prevista para atingir o importante marco de "tape-out" ainda este ano, com produção em massa planejada para 2026 na Taiwan Semiconductor Manufacturing Company (TSMC).

A abordagem diversificada da OpenAI em relação à infraestrutura de chips reflete a importância estratégica do hardware na corrida da IA. À medida que o treinamento e a execução de modelos de IA cada vez mais sofisticados exigem recursos computacionais enormes, as empresas buscam otimizar desempenho enquanto gerenciam custos e dependências da cadeia de suprimentos. Com parceiros de infraestrutura como Microsoft, Oracle e CoreWeave, a OpenAI se posiciona para manter a liderança tecnológica ao mesmo tempo em que enfrenta os desafios financeiros de escalar sistemas de IA.

Source: Reuters

Latest News