menu
close

OpenAI prueba las TPUs de Google para combatir el aumento de los costes de inferencia de IA

OpenAI ha comenzado a probar las Unidades de Procesamiento Tensorial (TPUs) de Google mientras explora alternativas para gestionar el creciente coste de la inferencia de IA, que ya consume más del 50% de su presupuesto de computación. Aunque no supone un despliegue a gran escala inmediato, este movimiento estratégico marca el primer uso significativo de hardware no perteneciente a NVIDIA por parte de OpenAI e indica un alejamiento de la dependencia exclusiva de la infraestructura de Microsoft. Esta exploración podría remodelar el panorama del hardware de IA al desafiar el dominio de NVIDIA y crear nuevas dinámicas competitivas entre los principales proveedores tecnológicos.
OpenAI prueba las TPUs de Google para combatir el aumento de los costes de inferencia de IA

OpenAI, uno de los mayores clientes mundiales de las unidades de procesamiento gráfico (GPU) de NVIDIA, ha comenzado a probar las Unidades de Procesamiento Tensorial (TPUs) de Google para potenciar sus sistemas de IA, incluido ChatGPT. Este paso se produce en un momento en el que la empresa se enfrenta a crecientes gastos computacionales y busca soluciones más rentables para sus operaciones de IA en expansión.

Según analistas del sector, la inferencia—el proceso por el cual los modelos de IA utilizan el conocimiento adquirido para hacer predicciones o tomar decisiones—consume ya más del 50% del presupuesto de computación de OpenAI. Las TPUs, especialmente las generaciones más antiguas, ofrecen un coste por inferencia significativamente menor en comparación con las GPUs de NVIDIA, lo que las convierte en una alternativa atractiva a pesar de no alcanzar el rendimiento máximo de los chips más recientes de NVIDIA.

"Aunque las TPUs más antiguas no alcanzan el rendimiento máximo de los chips más nuevos de Nvidia, su arquitectura dedicada minimiza el desperdicio energético y los recursos inactivos, lo que las hace más rentables a gran escala", explicó Charlie Dai, vicepresidente y analista principal de Forrester. El análisis del sector sugiere que Google podría obtener potencia de computación de IA por aproximadamente el 20% del coste que afrontan quienes adquieren GPUs de gama alta de NVIDIA, lo que implica una ventaja de eficiencia de costes de entre 4 y 6 veces.

Sin embargo, OpenAI ha aclarado que no tiene planes inmediatos para un despliegue masivo de TPUs. Un portavoz declaró a Reuters que la empresa está en "pruebas iniciales con algunas TPUs de Google", pero que actualmente "no hay planes para desplegarlas a gran escala". Este enfoque prudente refleja los importantes retos técnicos que supone la transición de la infraestructura, ya que el software de OpenAI ha sido optimizado principalmente para GPUs.

Más allá de las consideraciones de coste, este movimiento representa una diversificación estratégica de las fuentes de computación de OpenAI, más allá de Microsoft, que había sido su proveedor exclusivo de infraestructura de centros de datos hasta enero de 2025. La empresa ya ha establecido alianzas con Oracle y CoreWeave en su programa de infraestructura Stargate y está desarrollando su propio procesador de IA personalizado, que se espera alcance la fase de tape-out a finales de este año.

Las implicaciones para el mercado de hardware de IA podrían ser significativas. Si tiene éxito, la adopción de TPUs por parte de OpenAI podría validar el hardware de Google como una alternativa viable al cuasi monopolio de NVIDIA en la computación de IA de alto rendimiento. Esto podría presionar a NVIDIA para innovar o ajustar sus precios, al tiempo que crearía nuevas dinámicas competitivas entre proveedores cloud como Google, Microsoft y Amazon, que compiten por el dominio en la infraestructura de IA.

Source: Computerworld

Latest News