OpenAI ha aclarado su postura respecto a los chips de IA de Google, señalando que, si bien se están realizando pruebas iniciales con las unidades de procesamiento tensorial (TPUs) de Google, no existen planes inmediatos para desplegarlas a gran escala.
El 30 de junio, un portavoz de OpenAI abordó los informes que sugerían que la empresa utilizaría los chips desarrollados internamente por Google para potenciar sus productos. Esta aclaración se produjo después de que noticias previas indicaran que OpenAI había comenzado a rentar TPUs de Google a través de Google Cloud, con el objetivo de reducir potencialmente los costos de cómputo para inferencia, los cuales supuestamente representan más del 50% del presupuesto de cómputo de OpenAI.
El líder en inteligencia artificial está siguiendo una estrategia multifacética de chips para gestionar sus necesidades computacionales, que crecen de manera exponencial. Actualmente, OpenAI depende en gran medida de las GPUs de Nvidia, que dominan aproximadamente el 80% del mercado de chips de IA. Sin embargo, la empresa ha estado incorporando activamente los chips de IA de AMD en su infraestructura. En un desarrollo significativo, el CEO de OpenAI, Sam Altman, apareció junto a la CEO de AMD, Lisa Su, en el evento Advancing AI de AMD en junio de 2025, confirmando la adopción por parte de OpenAI de los chips MI300X de AMD y su participación con las próximas plataformas de la serie MI400.
Al mismo tiempo, OpenAI está avanzando considerablemente en el desarrollo de su propio chip de IA personalizado. El equipo interno de la empresa, liderado por Richard Ho, exjefe de TPUs de Google, ha crecido hasta contar con aproximadamente 40 ingenieros que colaboran con Broadcom. Esta iniciativa de silicio personalizado está en camino de alcanzar el importante hito de "tape-out" este año, con la producción en masa prevista para 2026 en Taiwan Semiconductor Manufacturing Company (TSMC).
El enfoque diversificado de OpenAI respecto a la infraestructura de chips refleja la importancia estratégica del hardware en la carrera por la inteligencia artificial. A medida que el entrenamiento y la operación de modelos de IA cada vez más sofisticados requieren enormes recursos computacionales, las empresas buscan optimizar el rendimiento mientras gestionan costos y dependencias en la cadena de suministro. Con socios de infraestructura como Microsoft, Oracle y CoreWeave, OpenAI se está posicionando para mantener el liderazgo tecnológico y, al mismo tiempo, enfrentar los desafíos financieros que implica escalar sistemas de IA.