A OpenAI, uma das maiores clientes mundiais das unidades de processamento gráfico (GPUs) da NVIDIA, começou a testar as Unidades de Processamento Tensorial (TPUs) do Google para alimentar seus sistemas de IA, incluindo o ChatGPT. Essa iniciativa surge em meio ao aumento dos custos computacionais da empresa, que busca soluções mais econômicas para suas operações de IA em expansão.
Segundo analistas do setor, a inferência — processo em que modelos de IA utilizam conhecimento treinado para fazer previsões ou tomar decisões — já consome mais de 50% do orçamento computacional da OpenAI. As TPUs, especialmente as gerações mais antigas, oferecem um custo por inferência significativamente menor em comparação às GPUs da NVIDIA, tornando-se uma alternativa atraente, mesmo que não alcancem o desempenho máximo dos chips mais recentes da NVIDIA.
"Embora TPUs mais antigas não atinjam o desempenho máximo dos chips mais novos da Nvidia, sua arquitetura dedicada minimiza o desperdício de energia e recursos ociosos, tornando-as mais econômicas em larga escala", explicou Charlie Dai, vice-presidente e analista principal da Forrester. Análises do setor sugerem que o Google pode obter poder computacional para IA a cerca de 20% do custo enfrentado por quem adquire GPUs NVIDIA de alto desempenho, o que implica uma vantagem de eficiência de custo de 4 a 6 vezes.
No entanto, a OpenAI esclareceu que não há planos imediatos para uma adoção em larga escala das TPUs. Um porta-voz disse à Reuters que a empresa está em "testes iniciais com algumas TPUs do Google", mas que atualmente "não há planos para implantá-las em escala". Essa postura cautelosa reflete os desafios técnicos significativos envolvidos na transição de infraestrutura, já que o stack de software da OpenAI foi otimizado principalmente para GPUs.
Além da questão dos custos, esse movimento representa uma diversificação estratégica das fontes de computação da OpenAI para além da Microsoft, que atuava como provedora exclusiva de infraestrutura de data center até janeiro de 2025. A empresa já firmou parcerias com Oracle e CoreWeave em seu programa de infraestrutura Stargate e está desenvolvendo seu próprio processador personalizado de IA, previsto para atingir o estágio de tape-out ainda este ano.
As implicações para o mercado de hardware de IA podem ser significativas. Caso tenha sucesso, a adoção de TPUs pela OpenAI pode validar o hardware do Google como uma alternativa viável ao quase monopólio da NVIDIA em computação de alto desempenho para IA. Isso pode pressionar a NVIDIA a inovar ou ajustar preços, além de criar novas dinâmicas competitivas entre provedores de nuvem como Google, Microsoft e Amazon na disputa pela liderança em infraestrutura de IA.