En una maniobra que subraya la evolución de las dinámicas en el sector de la inteligencia artificial, OpenAI ha asegurado un acuerdo pionero de servicios en la nube con Google, uno de sus principales competidores en el ámbito de la IA.
El acuerdo, cerrado en mayo tras meses de negociaciones, proporcionará a OpenAI capacidad de computación adicional para entrenar y ejecutar sus modelos de IA, cada vez más exigentes en recursos. Esta colaboración representa el último esfuerzo de OpenAI por diversificar su infraestructura más allá de Microsoft Azure, que había sido su proveedor exclusivo de servicios en la nube hasta enero de 2025.
El acuerdo llega en un momento crucial para OpenAI, que recientemente anunció que sus ingresos anualizados alcanzaron los 10.000 millones de dólares en junio de 2025, duplicando los 5.500 millones de diciembre de 2024. Con 500 millones de usuarios activos semanales y 3 millones de clientes empresariales de pago, la compañía se enfrenta a una presión creciente para escalar su infraestructura y satisfacer la demanda.
Para Google Cloud, conseguir a OpenAI como cliente supone una victoria significativa a pesar de la tensión competitiva entre ambas empresas. ChatGPT sigue siendo uno de los mayores desafíos para el dominio de búsqueda de Google, mientras que Gemini AI de Google compite directamente con los productos de OpenAI. Sin embargo, ambas compañías han priorizado consideraciones empresariales prácticas por encima de las rivalidades competitivas.
Esta asociación se suma a otras grandes iniciativas de infraestructura de OpenAI, como el proyecto Stargate de 500.000 millones de dólares anunciado en enero de 2025 en colaboración con SoftBank y Oracle. Esta iniciativa pretende construir enormes centros de datos de IA en Estados Unidos, con una inversión inicial de 100.000 millones de dólares.
Analistas del sector sugieren que este acuerdo señala una tendencia más amplia en la que las empresas de IA adoptan estrategias multicloud para garantizar recursos de computación suficientes y evitar la dependencia excesiva de un solo proveedor. A medida que el entrenamiento de modelos de IA requiere cada vez más recursos, incluso los competidores más acérrimos pueden verse compartiendo infraestructura para satisfacer las extraordinarias demandas del desarrollo avanzado de IA.