menu
close

OpenAI Adota TPUs do Google em Mudança Estratégica em Relação aos Chips da Nvidia

A OpenAI começou a alugar as Unidades de Processamento Tensorial (TPUs) do Google para impulsionar o ChatGPT e outros produtos, marcando o primeiro uso significativo de chips que não são da Nvidia pela líder em IA. Essa colaboração surpreendente entre concorrentes ocorre enquanto a OpenAI busca diversificar sua infraestrutura de computação além dos data centers da Microsoft. A empresa espera que as TPUs baseadas em nuvem do Google ajudem a reduzir os custos de inferência, mantendo o desempenho para seus serviços de IA em rápido crescimento.
OpenAI Adota TPUs do Google em Mudança Estratégica em Relação aos Chips da Nvidia

Em uma mudança significativa para a indústria de inteligência artificial, a OpenAI passou a utilizar as Unidades de Processamento Tensorial (TPUs) do Google para alimentar o ChatGPT e outros produtos de IA, segundo fontes próximas ao acordo.

Essa decisão representa a primeira vez que a OpenAI incorpora de maneira relevante chips que não são da Nvidia em sua infraestrutura. Até então, a empresa era uma das maiores compradoras mundiais das unidades de processamento gráfico (GPUs) da Nvidia, utilizadas tanto para o treinamento de modelos de IA quanto para a inferência computacional — o processo em que os modelos fazem previsões com base em novas informações.

Essa parceria surpreendente entre dois grandes concorrentes do setor de IA sinaliza o esforço estratégico da OpenAI para diversificar seus recursos computacionais além da plataforma em nuvem Azure, da Microsoft. Embora a Microsoft continue sendo a maior investidora da OpenAI e principal fornecedora de infraestrutura, o relacionamento entre as empresas tem apresentado sinais de tensão nos últimos meses, à medida que a OpenAI busca maior independência.

Para o Google, o acordo representa uma vitória importante ao expandir a oferta externa de suas TPUs desenvolvidas internamente, que historicamente eram reservadas para uso próprio. Os chips TPU do Google são projetados sob medida para tarefas de aprendizado de máquina e podem oferecer vantagens de desempenho para determinadas cargas de trabalho de IA em comparação com GPUs de uso geral. A empresa já conquistou outros clientes de peso, incluindo Apple, Anthropic e Safe Superintelligence — duas empresas de IA fundadas por ex-líderes da OpenAI.

A OpenAI espera que o aluguel de TPUs por meio do Google Cloud ajude a reduzir o custo da inferência computacional, que se tornou cada vez mais relevante à medida que a base de usuários do ChatGPT cresceu para centenas de milhões. No entanto, fontes indicam que o Google não está fornecendo à OpenAI acesso aos seus chips TPU mais potentes, mantendo assim certa vantagem competitiva.

Esse desenvolvimento ocorre em meio à estratégia mais ampla de diversificação de infraestrutura da OpenAI, que inclui o projeto Stargate de US$ 500 bilhões com a SoftBank e a Oracle, além de acordos bilionários com a CoreWeave para capacidade computacional adicional. A empresa também estaria desenvolvendo seu primeiro chip próprio para reduzir a dependência de fornecedores externos de hardware.

À medida que as demandas computacionais em IA continuam a crescer — com custos anuais da OpenAI projetados para chegar a bilhões de dólares —, essa parceria demonstra como até mesmo concorrentes ferrenhos no setor de IA estão dispostos a colaborar para atender às enormes necessidades de computação que impulsionam o avanço da indústria.

Source:

Latest News