En un cambio significativo para la industria de la inteligencia artificial, OpenAI ha comenzado a utilizar las Unidades de Procesamiento Tensorial (TPUs) de Google para potenciar ChatGPT y otros productos de IA, según fuentes familiarizadas con el acuerdo.
Este movimiento representa la primera vez que OpenAI incorpora de manera relevante chips que no son de Nvidia en su infraestructura. Hasta ahora, la compañía había sido uno de los mayores compradores mundiales de Unidades de Procesamiento Gráfico (GPUs) de Nvidia, empleadas tanto para el entrenamiento de modelos de IA como para la computación de inferencia—el proceso mediante el cual los modelos hacen predicciones a partir de nueva información.
Esta sorprendente asociación entre dos grandes competidores en IA señala el esfuerzo estratégico de OpenAI por diversificar sus recursos de computación más allá de la plataforma en la nube Azure de Microsoft. Aunque Microsoft sigue siendo el mayor inversor de OpenAI y su principal proveedor de infraestructura, la relación ha mostrado signos de tensión en los últimos meses a medida que OpenAI busca una mayor independencia.
Para Google, el acuerdo supone un logro importante al ampliar la disponibilidad externa de sus TPUs, que históricamente estaban reservadas para uso interno. Los chips TPU de Google están diseñados específicamente para tareas de aprendizaje automático y pueden ofrecer ventajas de rendimiento en ciertas cargas de trabajo de IA en comparación con las GPUs de propósito general. La empresa ya ha conseguido otros clientes de alto perfil, como Apple, Anthropic y Safe Superintelligence—dos compañías de IA fundadas por antiguos líderes de OpenAI.
OpenAI espera que el alquiler de TPUs a través de Google Cloud ayude a reducir el coste de la computación de inferencia, que se ha vuelto cada vez más relevante a medida que la base de usuarios de ChatGPT ha crecido hasta alcanzar cientos de millones. Sin embargo, fuentes indican que Google no está proporcionando a OpenAI acceso a sus chips TPU más potentes, manteniendo así cierta ventaja competitiva.
Este desarrollo se enmarca en la estrategia más amplia de diversificación de infraestructura de OpenAI, que incluye el proyecto Stargate de 500.000 millones de dólares junto a SoftBank y Oracle, así como acuerdos multimillonarios con CoreWeave para obtener capacidad informática adicional. Además, según se informa, la empresa está desarrollando su propio chip interno para reducir la dependencia de proveedores externos de hardware.
A medida que la demanda de computación para IA sigue aumentando—con unos costes anuales para OpenAI que se prevé alcancen miles de millones de dólares—esta colaboración demuestra cómo incluso los competidores más acérrimos del sector están dispuestos a cooperar para satisfacer los enormes requisitos informáticos que impulsan la industria.