OpenAI, uno de los mayores clientes mundiales de las unidades de procesamiento gráfico (GPUs) de NVIDIA, ha comenzado a probar las Unidades de Procesamiento Tensorial (TPUs) de Google para potenciar sus sistemas de IA, incluido ChatGPT. Esta decisión surge ante el aumento de los gastos computacionales de la empresa y su búsqueda de soluciones más rentables para sus crecientes operaciones de inteligencia artificial.
Según analistas de la industria, la inferencia—el proceso mediante el cual los modelos de IA utilizan el conocimiento entrenado para hacer predicciones o tomar decisiones—consume ahora más del 50% del presupuesto de cómputo de OpenAI. Las TPUs, especialmente las generaciones anteriores, ofrecen un costo por inferencia significativamente menor en comparación con las GPUs de NVIDIA, lo que las convierte en una alternativa atractiva a pesar de que pueden carecer del rendimiento máximo de los chips más recientes de NVIDIA.
"Aunque las TPUs más antiguas no alcanzan el rendimiento máximo de los chips más nuevos de Nvidia, su arquitectura dedicada minimiza el desperdicio de energía y los recursos inactivos, haciéndolas más rentables a gran escala", explicó Charlie Dai, vicepresidente y analista principal en Forrester. El análisis de la industria sugiere que Google podría obtener potencia de cómputo de IA a aproximadamente el 20% del costo que enfrentan quienes adquieren GPUs de gama alta de NVIDIA, lo que implica una ventaja de eficiencia de costos de 4 a 6 veces.
Sin embargo, OpenAI ha aclarado que no tiene planes inmediatos para un despliegue masivo de TPUs. Un portavoz dijo a Reuters que la empresa se encuentra en "pruebas iniciales con algunas TPUs de Google", pero que actualmente "no hay planes para implementarlas a gran escala". Este enfoque cauteloso refleja los importantes desafíos técnicos involucrados en la transición de infraestructura, ya que el software de OpenAI ha sido optimizado principalmente para GPUs.
Más allá de las consideraciones de costos, este movimiento representa una diversificación estratégica de las fuentes de cómputo de OpenAI más allá de Microsoft, que había sido su proveedor exclusivo de infraestructura de centros de datos hasta enero de 2025. La empresa ya ha establecido alianzas con Oracle y CoreWeave en su programa de infraestructura Stargate y está desarrollando su propio procesador personalizado de IA, que se espera alcance la etapa de tape-out a finales de este año.
Las implicaciones para el mercado de hardware de IA podrían ser significativas. Si tiene éxito, la adopción de TPUs por parte de OpenAI podría validar el hardware de Google como una alternativa viable al casi monopolio de NVIDIA en el cómputo de IA de alto rendimiento. Esto podría presionar a NVIDIA para innovar o ajustar sus precios, al tiempo que crearía nuevas dinámicas competitivas entre proveedores de nube como Google, Microsoft y Amazon, quienes compiten por el dominio en la infraestructura de IA.