menu
close

OpenAI Recorre às TPUs da Google numa Mudança Estratégica face aos Chips da Nvidia

A OpenAI começou a alugar as Tensor Processing Units (TPUs) da Google para alimentar o ChatGPT e outros produtos, marcando a primeira utilização significativa de chips que não são da Nvidia por parte do líder em IA. Esta colaboração surpreendente entre concorrentes surge numa altura em que a OpenAI procura diversificar a sua infraestrutura de computação para além dos centros de dados da Microsoft. A empresa espera que as TPUs baseadas na cloud da Google ajudem a reduzir os custos de inferência, mantendo o desempenho dos seus serviços de IA em rápido crescimento.
OpenAI Recorre às TPUs da Google numa Mudança Estratégica face aos Chips da Nvidia

Numa mudança significativa para a indústria da inteligência artificial, a OpenAI começou a utilizar as Tensor Processing Units (TPUs) da Google para alimentar o ChatGPT e outros produtos de IA, segundo fontes próximas do acordo.

Esta decisão representa a primeira vez que a OpenAI integra de forma relevante chips que não são da Nvidia na sua infraestrutura. Até agora, a empresa era um dos maiores compradores mundiais de unidades de processamento gráfico (GPUs) da Nvidia, utilizadas tanto para treinar modelos de IA como para computação de inferência — o processo em que os modelos fazem previsões com base em nova informação.

Esta parceria surpreendente entre dois grandes concorrentes no campo da IA sinaliza o esforço estratégico da OpenAI para diversificar os seus recursos de computação para além da plataforma cloud Azure da Microsoft. Embora a Microsoft continue a ser o maior investidor e principal fornecedor de infraestrutura da OpenAI, a relação entre as duas empresas tem mostrado sinais de tensão nos últimos meses, à medida que a OpenAI procura maior independência.

Para a Google, o acordo representa uma vitória significativa ao expandir a disponibilidade externa das suas TPUs desenvolvidas internamente, que historicamente estavam reservadas para uso próprio. Os chips TPU da Google são concebidos especificamente para tarefas de aprendizagem automática e podem oferecer vantagens de desempenho em determinados workloads de IA, em comparação com GPUs de uso geral. A empresa já garantiu outros clientes de grande destaque, incluindo a Apple, a Anthropic e a Safe Superintelligence — duas empresas de IA fundadas por antigos líderes da OpenAI.

A OpenAI espera que o aluguer de TPUs através da Google Cloud ajude a reduzir os custos de computação de inferência, que se tornaram cada vez mais relevantes à medida que a base de utilizadores do ChatGPT cresceu para centenas de milhões. No entanto, fontes indicam que a Google não está a fornecer à OpenAI acesso aos seus chips TPU mais potentes, mantendo assim alguma vantagem competitiva.

Este desenvolvimento surge no âmbito da estratégia mais ampla de diversificação de infraestrutura da OpenAI, que inclui o projeto Stargate de 500 mil milhões de dólares com a SoftBank e a Oracle, bem como acordos de vários milhares de milhões com a CoreWeave para capacidade computacional adicional. A empresa estará também a desenvolver o seu primeiro chip próprio, de modo a reduzir a dependência de fornecedores externos de hardware.

À medida que as exigências de computação em IA continuam a aumentar — prevendo-se que os custos anuais da OpenAI atinjam valores na ordem dos milhares de milhões de dólares — esta parceria demonstra como até mesmo concorrentes acérrimos no setor da IA estão dispostos a colaborar para responder às enormes necessidades computacionais que impulsionam a indústria.

Source:

Latest News