Numa mudança significativa para a indústria da inteligência artificial, a OpenAI começou a utilizar as Tensor Processing Units (TPUs) da Google para alimentar o ChatGPT e outros produtos de IA, segundo fontes próximas do acordo.
Esta decisão representa a primeira vez que a OpenAI integra de forma relevante chips que não são da Nvidia na sua infraestrutura. Até agora, a empresa era um dos maiores compradores mundiais de unidades de processamento gráfico (GPUs) da Nvidia, utilizadas tanto para treinar modelos de IA como para computação de inferência — o processo em que os modelos fazem previsões com base em nova informação.
Esta parceria surpreendente entre dois grandes concorrentes no campo da IA sinaliza o esforço estratégico da OpenAI para diversificar os seus recursos de computação para além da plataforma cloud Azure da Microsoft. Embora a Microsoft continue a ser o maior investidor e principal fornecedor de infraestrutura da OpenAI, a relação entre as duas empresas tem mostrado sinais de tensão nos últimos meses, à medida que a OpenAI procura maior independência.
Para a Google, o acordo representa uma vitória significativa ao expandir a disponibilidade externa das suas TPUs desenvolvidas internamente, que historicamente estavam reservadas para uso próprio. Os chips TPU da Google são concebidos especificamente para tarefas de aprendizagem automática e podem oferecer vantagens de desempenho em determinados workloads de IA, em comparação com GPUs de uso geral. A empresa já garantiu outros clientes de grande destaque, incluindo a Apple, a Anthropic e a Safe Superintelligence — duas empresas de IA fundadas por antigos líderes da OpenAI.
A OpenAI espera que o aluguer de TPUs através da Google Cloud ajude a reduzir os custos de computação de inferência, que se tornaram cada vez mais relevantes à medida que a base de utilizadores do ChatGPT cresceu para centenas de milhões. No entanto, fontes indicam que a Google não está a fornecer à OpenAI acesso aos seus chips TPU mais potentes, mantendo assim alguma vantagem competitiva.
Este desenvolvimento surge no âmbito da estratégia mais ampla de diversificação de infraestrutura da OpenAI, que inclui o projeto Stargate de 500 mil milhões de dólares com a SoftBank e a Oracle, bem como acordos de vários milhares de milhões com a CoreWeave para capacidade computacional adicional. A empresa estará também a desenvolver o seu primeiro chip próprio, de modo a reduzir a dependência de fornecedores externos de hardware.
À medida que as exigências de computação em IA continuam a aumentar — prevendo-se que os custos anuais da OpenAI atinjam valores na ordem dos milhares de milhões de dólares — esta parceria demonstra como até mesmo concorrentes acérrimos no setor da IA estão dispostos a colaborar para responder às enormes necessidades computacionais que impulsionam a indústria.