menu
close

OpenAI Testa TPUs da Google para Combater o Crescente Custo da Inferência de IA

A OpenAI iniciou testes com as Tensor Processing Units (TPUs) da Google, numa tentativa de encontrar alternativas para gerir o aumento dos custos de inferência de IA, que já consomem mais de 50% do seu orçamento de computação. Embora não indique uma implementação em larga escala para já, esta decisão estratégica representa a primeira utilização significativa de hardware não-NVIDIA pela OpenAI e sugere um afastamento da dependência exclusiva da infraestrutura da Microsoft. Esta exploração poderá remodelar o panorama do hardware de IA, desafiando o domínio da NVIDIA e criando novas dinâmicas competitivas entre os principais fornecedores tecnológicos.
OpenAI Testa TPUs da Google para Combater o Crescente Custo da Inferência de IA

A OpenAI, um dos maiores clientes mundiais das unidades de processamento gráfico (GPUs) da NVIDIA, começou a testar as Tensor Processing Units (TPUs) da Google para alimentar os seus sistemas de IA, incluindo o ChatGPT. Esta decisão surge numa altura em que a empresa enfrenta despesas computacionais crescentes e procura soluções mais económicas para as suas operações de IA em expansão.

Segundo analistas do sector, a inferência — o processo em que os modelos de IA utilizam o conhecimento adquirido para fazer previsões ou tomar decisões — já representa mais de 50% do orçamento de computação da OpenAI. As TPUs, especialmente as gerações mais antigas, oferecem um custo por inferência significativamente inferior ao das GPUs da NVIDIA, tornando-se uma alternativa atrativa, apesar de poderem não atingir o desempenho máximo dos chips NVIDIA mais recentes.

"Embora as TPUs mais antigas não atinjam o desempenho máximo dos chips mais recentes da Nvidia, a sua arquitetura dedicada minimiza o desperdício energético e os recursos ociosos, tornando-as mais rentáveis em larga escala", explicou Charlie Dai, vice-presidente e analista principal da Forrester. A análise do sector sugere que a Google pode obter poder de computação de IA a cerca de 20% do custo suportado por quem adquire GPUs NVIDIA topo de gama, o que implica uma vantagem de eficiência de custos de 4 a 6 vezes.

No entanto, a OpenAI esclareceu que não tem planos imediatos para uma implementação em larga escala das TPUs. Um porta-voz disse à Reuters que a empresa está em "testes iniciais com algumas TPUs da Google", mas que atualmente "não existem planos para as implementar em grande escala". Esta abordagem cautelosa reflete os desafios técnicos significativos associados à transição de infraestruturas, uma vez que o software da OpenAI foi otimizado principalmente para GPUs.

Para além das considerações de custo, esta decisão representa uma diversificação estratégica das fontes de computação da OpenAI para além da Microsoft, que foi o seu fornecedor exclusivo de infraestrutura de data center até janeiro de 2025. A empresa já estabeleceu parcerias com a Oracle e a CoreWeave no âmbito do seu programa de infraestrutura Stargate e está a desenvolver o seu próprio processador de IA personalizado, que deverá atingir a fase de tape-out ainda este ano.

As implicações para o mercado de hardware de IA podem ser significativas. Se bem-sucedida, a adoção de TPUs pela OpenAI poderá validar o hardware da Google como uma alternativa viável ao quase monopólio da NVIDIA na computação de IA de alto desempenho. Isto poderá pressionar a NVIDIA a inovar ou a ajustar preços, ao mesmo tempo que cria novas dinâmicas competitivas entre fornecedores de cloud como a Google, Microsoft e Amazon, que disputam a liderança na infraestrutura de IA.

Source: Computerworld

Latest News