OpenAI ha aclarado su postura respecto a los chips de inteligencia artificial de Google, afirmando que, aunque se están realizando pruebas iniciales con las unidades de procesamiento tensorial (TPU) de Google, no existen planes inmediatos para desplegarlas a gran escala.
El 30 de junio, un portavoz de OpenAI respondió a las informaciones que sugerían que la compañía utilizaría los chips propios de Google para impulsar sus productos. Esta aclaración llegó después de que noticias anteriores indicaran que OpenAI había comenzado a alquilar TPU de Google a través de Google Cloud, con el objetivo potencial de reducir los costes de computación para inferencia, que supuestamente representan más del 50% del presupuesto de cómputo de OpenAI.
El líder en IA está siguiendo una estrategia multifacética de chips para gestionar sus necesidades computacionales, que crecen de forma exponencial. Actualmente, OpenAI depende en gran medida de las GPU de Nvidia, que dominan aproximadamente el 80% del mercado de chips de IA. Sin embargo, la compañía ha estado incorporando activamente los chips de IA de AMD en su infraestructura. En un desarrollo significativo, el CEO de OpenAI, Sam Altman, apareció junto a la CEO de AMD, Lisa Su, en el evento Advancing AI de AMD en junio de 2025, confirmando la adopción por parte de OpenAI de los chips MI300X de AMD y su implicación con las futuras plataformas de la serie MI400.
Paralelamente, OpenAI está avanzando de manera sustancial en el desarrollo de su propio chip de IA personalizado. El equipo interno de la compañía, liderado por el exresponsable de los TPU de Google, Richard Ho, ha crecido hasta contar con unos 40 ingenieros que trabajan en colaboración con Broadcom. Esta iniciativa de silicio personalizado prevé alcanzar este año el hito crítico conocido como "tape-out", con la producción en masa prevista para 2026 en Taiwan Semiconductor Manufacturing Company (TSMC).
El enfoque diversificado de OpenAI respecto a la infraestructura de chips refleja la importancia estratégica del hardware en la carrera por la IA. A medida que el entrenamiento y la ejecución de modelos de IA cada vez más sofisticados requieren enormes recursos computacionales, las empresas buscan optimizar el rendimiento mientras gestionan los costes y las dependencias de la cadena de suministro. Con socios de infraestructura como Microsoft, Oracle y CoreWeave, OpenAI se posiciona para mantener el liderazgo tecnológico mientras afronta los retos financieros de escalar los sistemas de IA.