menu
close

OpenAI Diversifica Estratégia de Chips e Esclarece Testes com TPUs da Google

A OpenAI confirmou que está a testar as unidades de processamento tensorial (TPUs) da Google, mas não tem planos imediatos para uma implementação em larga escala. O líder em IA utiliza ativamente GPUs da Nvidia e chips da AMD para responder à crescente procura computacional, ao mesmo tempo que desenvolve o seu próprio silício personalizado. Esta diversificação estratégica sublinha a importância crítica da infraestrutura de chips no competitivo panorama da inteligência artificial.
OpenAI Diversifica Estratégia de Chips e Esclarece Testes com TPUs da Google

A OpenAI esclareceu a sua posição relativamente aos chips de IA da Google, afirmando que, embora estejam a decorrer testes iniciais com as unidades de processamento tensorial (TPUs) da Google, não existem planos imediatos para a sua implementação em larga escala.

A 30 de junho, um porta-voz da OpenAI respondeu a notícias que sugeriam que a empresa iria utilizar chips desenvolvidos internamente pela Google para alimentar os seus produtos. O esclarecimento surgiu após notícias anteriores indicarem que a OpenAI tinha começado a alugar TPUs da Google através da Google Cloud, com o objetivo de potencialmente reduzir os custos de computação de inferência, que alegadamente consomem mais de 50% do orçamento computacional da OpenAI.

A empresa líder em IA está a adotar uma estratégia multifacetada no que toca a chips, para gerir as suas necessidades computacionais em rápido crescimento. Atualmente, a OpenAI depende fortemente das GPUs da Nvidia, que dominam cerca de 80% do mercado de chips de IA. No entanto, a empresa tem vindo a integrar ativamente chips de IA da AMD na sua infraestrutura. Num desenvolvimento significativo, o CEO da OpenAI, Sam Altman, apareceu ao lado da CEO da AMD, Lisa Su, no evento Advancing AI da AMD em junho de 2025, confirmando a adoção dos chips MI300X da AMD pela OpenAI e o envolvimento com as futuras plataformas da série MI400.

Em simultâneo, a OpenAI está a fazer progressos substanciais no desenvolvimento do seu próprio chip de IA personalizado. A equipa interna da empresa, liderada por Richard Ho, ex-responsável pelas TPUs da Google, já conta com cerca de 40 engenheiros a trabalhar em colaboração com a Broadcom. Esta iniciativa de silício personalizado está no caminho certo para alcançar o importante marco de "tape-out" ainda este ano, estando a produção em massa prevista para 2026 na Taiwan Semiconductor Manufacturing Company (TSMC).

A abordagem diversificada da OpenAI à infraestrutura de chips reflete a importância estratégica do hardware na corrida à IA. À medida que o treino e a execução de modelos de IA cada vez mais sofisticados requerem recursos computacionais enormes, as empresas procuram otimizar o desempenho, ao mesmo tempo que gerem custos e dependências da cadeia de abastecimento. Com parceiros de infraestrutura como a Microsoft, Oracle e CoreWeave, a OpenAI posiciona-se para manter a liderança tecnológica, enfrentando simultaneamente os desafios financeiros do escalonamento de sistemas de IA.

Source: Reuters

Latest News