Numa mudança significativa na infraestrutura de IA, a OpenAI começou a alugar os Tensor Processing Units (TPUs) especializados da Google para alimentar o ChatGPT e outros produtos de IA, de acordo com fontes próximas do acordo.
Esta é a primeira vez que a OpenAI utiliza de forma significativa chips que não pertencem à Nvidia para as suas cargas de trabalho de IA. Historicamente, a empresa tem sido um dos maiores compradores mundiais das unidades de processamento gráfico (GPUs) da Nvidia, que dominam o mercado de chips para IA. A OpenAI espera que os TPUs, aos quais acede através da Google Cloud, ajudem a reduzir o custo da computação de inferência — o processo em que os modelos de IA utilizam o seu treino para fazer previsões ou tomar decisões.
A parceria representa mais um passo na estratégia da OpenAI para diversificar a sua infraestrutura computacional. No início deste ano, a Microsoft — o maior investidor e principal fornecedor de cloud da OpenAI — alterou o acordo de exclusividade, passando para um modelo em que a Microsoft tem o "direito de preferência" sobre nova capacidade de computação em cloud da OpenAI. Esta alteração permitiu à OpenAI procurar novas parcerias, incluindo esta mais recente com a Google.
Para a Google, garantir a OpenAI como cliente demonstra como a gigante tecnológica conseguiu aproveitar a sua tecnologia de IA interna para expandir o seu negócio de cloud. Os TPUs da Google, que eram historicamente reservados para uso interno, oferecem vantagens específicas para certas cargas de trabalho de IA, incluindo potencialmente maior eficiência energética e rentabilidade para tarefas de inferência em comparação com as GPUs.
No entanto, a colaboração tem os seus limites. Segundo relatos, a Google não está a alugar os seus TPUs mais potentes à OpenAI, mantendo assim algumas barreiras competitivas entre os dois rivais no campo da IA. Esta abordagem seletiva evidencia a complexidade das dinâmicas no setor da IA, onde as empresas frequentemente competem e colaboram em simultâneo.
O acordo surge num contexto de intensa competição por recursos de computação para IA, com as grandes empresas tecnológicas a investirem milhares de milhões em hardware especializado. A mais recente geração de TPUs da Google, com o nome de código Trillium, oferece melhorias de desempenho significativas face às versões anteriores e foi concebida para responder às enormes exigências computacionais dos modelos de IA avançados.