En un cambio significativo para la infraestructura de inteligencia artificial, OpenAI ha comenzado a rentar las Unidades de Procesamiento Tensorial (TPUs) especializadas de Google para potenciar ChatGPT y otros productos de IA, según fuentes familiarizadas con el acuerdo.
Esta es la primera vez que OpenAI utiliza de manera significativa chips que no son de Nvidia para sus cargas de trabajo de IA. Históricamente, la empresa ha sido uno de los mayores compradores mundiales de Unidades de Procesamiento Gráfico (GPUs) de Nvidia, que dominan el mercado de chips para IA. OpenAI espera que los TPUs, a los que accede a través de Google Cloud, ayuden a reducir el costo de la computación de inferencia, es decir, el proceso en el que los modelos de IA utilizan su entrenamiento para hacer predicciones o tomar decisiones.
La alianza representa otro paso en la estrategia de OpenAI para diversificar su infraestructura computacional. A principios de este año, Microsoft—el mayor inversionista y principal proveedor de nube de OpenAI—modificó su acuerdo exclusivo, pasando a un modelo en el que Microsoft tiene un "derecho de preferencia" sobre la nueva capacidad de computación en la nube de OpenAI. Este cambio permitió a OpenAI buscar alianzas adicionales, incluida esta más reciente con Google.
Para Google, asegurar a OpenAI como cliente demuestra cómo el gigante tecnológico ha sabido aprovechar su tecnología de IA interna para hacer crecer su negocio en la nube. Los TPUs de Google, que históricamente estaban reservados para uso interno, ofrecen ventajas específicas para ciertas cargas de trabajo de IA, incluyendo potencialmente una mayor eficiencia energética y rentabilidad para tareas de inferencia en comparación con las GPUs.
Sin embargo, la colaboración tiene sus límites. Según reportes, Google no está rentando sus TPUs más potentes a OpenAI, manteniendo ciertas barreras competitivas entre ambos rivales en el ámbito de la IA. Este enfoque selectivo resalta la compleja dinámica del sector, donde las empresas suelen competir y colaborar al mismo tiempo.
El acuerdo se produce en medio de una intensa competencia por recursos de computación para IA, con las principales empresas tecnológicas invirtiendo miles de millones en hardware especializado. La última generación de TPUs de Google, con nombre clave Trillium, ofrece mejoras significativas de rendimiento respecto a versiones anteriores y está diseñada para enfrentar las enormes demandas computacionales de los modelos de IA más avanzados.