En un cambio significativo para la infraestructura de inteligencia artificial, OpenAI ha empezado a alquilar las Unidades de Procesamiento Tensorial (TPUs) especializadas de Google para dar soporte a ChatGPT y otros productos de IA, según fuentes cercanas al acuerdo.
Esta es la primera vez que OpenAI utiliza de manera relevante chips que no son de Nvidia para sus cargas de trabajo de IA. Históricamente, la compañía ha sido uno de los mayores compradores mundiales de Unidades de Procesamiento Gráfico (GPUs) de Nvidia, que dominan el mercado de chips de IA. OpenAI espera que los TPUs, a los que accede a través de Google Cloud, ayuden a reducir el coste de la computación de inferencia, es decir, el proceso mediante el cual los modelos de IA utilizan su entrenamiento para hacer predicciones o tomar decisiones.
La colaboración supone un nuevo paso en la estrategia de OpenAI para diversificar su infraestructura computacional. A principios de este año, Microsoft—el mayor inversor y principal proveedor de nube de OpenAI—modificó su acuerdo exclusivo, pasando a un modelo en el que Microsoft tiene un "derecho de tanteo" sobre la nueva capacidad de computación en la nube de OpenAI. Este cambio permitió a OpenAI buscar asociaciones adicionales, incluida esta última con Google.
Para Google, conseguir a OpenAI como cliente demuestra cómo el gigante tecnológico ha sabido aprovechar su tecnología de IA propia para hacer crecer su negocio en la nube. Los TPUs de Google, que históricamente estaban reservados para uso interno, ofrecen ventajas específicas para ciertas cargas de trabajo de IA, como una mayor eficiencia energética y rentabilidad en tareas de inferencia en comparación con las GPUs.
Sin embargo, la colaboración tiene sus límites. Según los informes, Google no está alquilando sus TPUs más potentes a OpenAI, manteniendo así ciertas barreras competitivas entre ambos rivales en el campo de la IA. Este enfoque selectivo pone de manifiesto la compleja dinámica del sector, donde las empresas suelen competir y colaborar al mismo tiempo.
El acuerdo se produce en un contexto de intensa competencia por los recursos de computación para IA, con las grandes tecnológicas invirtiendo miles de millones en hardware especializado. La última generación de TPUs de Google, con nombre en clave Trillium, ofrece mejoras de rendimiento significativas respecto a versiones anteriores y está diseñada para afrontar las enormes demandas computacionales de los modelos de IA más avanzados.