En una acción que subraya la evolución de la industria de la inteligencia artificial, OpenAI ha asegurado un acuerdo innovador de servicios en la nube con Google, uno de sus principales competidores en el sector de la IA.
El acuerdo, cerrado en mayo tras meses de negociaciones, proporcionará a OpenAI capacidad de cómputo adicional para entrenar y operar sus modelos de IA, cada vez más exigentes en recursos. Esta colaboración representa el esfuerzo más reciente de OpenAI por diversificar su infraestructura más allá de Microsoft Azure, que había sido su proveedor exclusivo de nube hasta enero de 2025.
El convenio llega en un momento crucial para OpenAI, que recientemente anunció que sus ingresos anualizados alcanzaron los 10 mil millones de dólares en junio de 2025, duplicando los 5.5 mil millones reportados en diciembre de 2024. Con 500 millones de usuarios activos semanales y 3 millones de clientes empresariales de pago, la compañía enfrenta una creciente presión para escalar su infraestructura y satisfacer la demanda.
Para Google Cloud, asegurar a OpenAI como cliente representa una victoria significativa a pesar de la tensión competitiva entre ambas empresas. ChatGPT sigue siendo uno de los mayores desafíos para el dominio de búsqueda de Google, mientras que Gemini AI de Google compite directamente con los productos de OpenAI. Sin embargo, ambas compañías han priorizado consideraciones comerciales prácticas por encima de sus rivalidades.
Esta alianza sigue a otras iniciativas importantes de infraestructura de OpenAI, como el proyecto Stargate de 500 mil millones de dólares anunciado en enero de 2025 en colaboración con SoftBank y Oracle. Ese proyecto busca construir enormes centros de datos de IA en Estados Unidos, con una inversión inicial de 100 mil millones de dólares.
Analistas de la industria sugieren que este acuerdo señala una tendencia más amplia, en la que las empresas de IA adoptan estrategias multi-nube para asegurar recursos de cómputo suficientes y evitar depender de un solo proveedor. A medida que el entrenamiento de modelos de IA se vuelve cada vez más intensivo en recursos, incluso los competidores más acérrimos pueden verse compartiendo infraestructura para satisfacer las extraordinarias demandas del desarrollo avanzado de IA.