Num movimento que sublinha a evolução das dinâmicas no sector da inteligência artificial, a OpenAI garantiu um acordo inovador de serviços cloud com a Google, um dos seus principais concorrentes na área da IA.
O acordo, finalizado em maio após meses de negociações, irá proporcionar à OpenAI capacidade de computação adicional para treinar e operar os seus modelos de IA cada vez mais exigentes em termos de recursos. Esta parceria representa o mais recente esforço da OpenAI para diversificar a sua infraestrutura para além da Microsoft Azure, que tinha sido o seu fornecedor exclusivo de cloud até janeiro de 2025.
O acordo surge num momento crítico para a OpenAI, que anunciou recentemente que a sua receita anualizada atingiu os 10 mil milhões de dólares em junho de 2025, duplicando face aos 5,5 mil milhões registados em dezembro de 2024. Com 500 milhões de utilizadores ativos por semana e 3 milhões de clientes empresariais pagantes, a empresa enfrenta uma pressão crescente para escalar a sua infraestrutura e responder à procura em expansão.
Para a Google Cloud, garantir a OpenAI como cliente representa uma vitória significativa, apesar da tensão competitiva entre as empresas. O ChatGPT continua a ser um dos maiores desafios à liderança da Google na pesquisa online, enquanto a Gemini AI da Google compete diretamente com os produtos da OpenAI. Ainda assim, ambas as empresas deram prioridade a considerações práticas de negócio em detrimento das rivalidades competitivas.
Esta parceria surge na sequência de outras grandes iniciativas de infraestrutura da OpenAI, incluindo o projeto Stargate de 500 mil milhões de dólares anunciado em janeiro de 2025, em colaboração com a SoftBank e a Oracle. Este projeto visa construir enormes centros de dados de IA nos Estados Unidos, com um investimento inicial de 100 mil milhões de dólares.
Analistas do sector sugerem que este acordo sinaliza uma tendência mais ampla, em que as empresas de IA adotam estratégias multi-cloud para garantir recursos de computação suficientes e evitar dependência excessiva de um único fornecedor. À medida que o treino de modelos de IA se torna cada vez mais exigente em termos de recursos, até mesmo concorrentes diretos podem ver-se a partilhar infraestrutura para responder às exigências extraordinárias do desenvolvimento avançado de IA.