Em uma mudança significativa para a infraestrutura de IA, a OpenAI passou a alugar as Unidades de Processamento Tensorial (TPUs) especializadas do Google para alimentar o ChatGPT e outros produtos de IA, segundo fontes familiarizadas com o acordo.
Esta é a primeira vez que a OpenAI utiliza de forma relevante chips que não são da Nvidia para suas cargas de trabalho de IA. Historicamente, a empresa foi uma das maiores compradoras mundiais das unidades de processamento gráfico (GPUs) da Nvidia, que dominam o mercado de chips para IA. A OpenAI espera que as TPUs, acessadas por meio do Google Cloud, ajudem a reduzir o custo da computação de inferência — o processo em que modelos de IA utilizam seu treinamento para fazer previsões ou tomar decisões.
A parceria representa mais um passo na estratégia da OpenAI de diversificar sua infraestrutura computacional. No início deste ano, a Microsoft — maior investidora e principal provedora de nuvem da OpenAI — modificou o acordo de exclusividade, passando para um modelo em que a Microsoft tem o "direito de preferência" sobre novas capacidades de computação em nuvem da OpenAI. Essa mudança permitiu que a OpenAI buscasse novas parcerias, incluindo esta mais recente com o Google.
Para o Google, conquistar a OpenAI como cliente demonstra como a gigante da tecnologia conseguiu alavancar sua tecnologia de IA interna para expandir seu negócio de nuvem. As TPUs do Google, que antes eram reservadas para uso interno, oferecem vantagens específicas para determinadas cargas de trabalho de IA, incluindo potencialmente maior eficiência energética e melhor relação custo-benefício para tarefas de inferência em comparação com as GPUs.
No entanto, a colaboração tem seus limites. Segundo relatos, o Google não está alugando suas TPUs mais poderosas para a OpenAI, mantendo certos limites competitivos entre as duas rivais em IA. Essa abordagem seletiva evidencia a dinâmica complexa do setor de IA, onde empresas frequentemente competem e colaboram ao mesmo tempo.
O acordo ocorre em meio à intensa competição por recursos computacionais de IA, com grandes empresas de tecnologia investindo bilhões em hardware especializado. A geração mais recente de TPUs do Google, codinome Trillium, oferece melhorias significativas de desempenho em relação às versões anteriores e foi projetada para lidar com as enormes demandas computacionais dos modelos avançados de IA.