menu
close

OpenAI Recorre aos TPUs da Google numa Mudança Estratégica para Além da Nvidia

A OpenAI começou a utilizar os Tensor Processing Units (TPUs) da Google para alimentar o ChatGPT e outros produtos, assinalando a sua primeira adoção significativa de chips que não pertencem à Nvidia. Esta parceria surge após a decisão da OpenAI de diversificar para além dos serviços de cloud da Microsoft Azure e representa uma grande vitória para a Google Cloud. A colaboração responde às crescentes necessidades computacionais da OpenAI, ao mesmo tempo que demonstra o sucesso da Google na comercialização do seu hardware de IA especializado.
OpenAI Recorre aos TPUs da Google numa Mudança Estratégica para Além da Nvidia

Numa mudança significativa na infraestrutura de IA, a OpenAI começou a alugar os Tensor Processing Units (TPUs) especializados da Google para alimentar o ChatGPT e outros produtos de IA, de acordo com fontes próximas do acordo.

Esta é a primeira vez que a OpenAI utiliza de forma significativa chips que não pertencem à Nvidia para as suas cargas de trabalho de IA. Historicamente, a empresa tem sido um dos maiores compradores mundiais das unidades de processamento gráfico (GPUs) da Nvidia, que dominam o mercado de chips para IA. A OpenAI espera que os TPUs, aos quais acede através da Google Cloud, ajudem a reduzir o custo da computação de inferência — o processo em que os modelos de IA utilizam o seu treino para fazer previsões ou tomar decisões.

A parceria representa mais um passo na estratégia da OpenAI para diversificar a sua infraestrutura computacional. No início deste ano, a Microsoft — o maior investidor e principal fornecedor de cloud da OpenAI — alterou o acordo de exclusividade, passando para um modelo em que a Microsoft tem o "direito de preferência" sobre nova capacidade de computação em cloud da OpenAI. Esta alteração permitiu à OpenAI procurar novas parcerias, incluindo esta mais recente com a Google.

Para a Google, garantir a OpenAI como cliente demonstra como a gigante tecnológica conseguiu aproveitar a sua tecnologia de IA interna para expandir o seu negócio de cloud. Os TPUs da Google, que eram historicamente reservados para uso interno, oferecem vantagens específicas para certas cargas de trabalho de IA, incluindo potencialmente maior eficiência energética e rentabilidade para tarefas de inferência em comparação com as GPUs.

No entanto, a colaboração tem os seus limites. Segundo relatos, a Google não está a alugar os seus TPUs mais potentes à OpenAI, mantendo assim algumas barreiras competitivas entre os dois rivais no campo da IA. Esta abordagem seletiva evidencia a complexidade das dinâmicas no setor da IA, onde as empresas frequentemente competem e colaboram em simultâneo.

O acordo surge num contexto de intensa competição por recursos de computação para IA, com as grandes empresas tecnológicas a investirem milhares de milhões em hardware especializado. A mais recente geração de TPUs da Google, com o nome de código Trillium, oferece melhorias de desempenho significativas face às versões anteriores e foi concebida para responder às enormes exigências computacionais dos modelos de IA avançados.

Source:

Latest News