menu
close

OpenAI recurre a los TPUs de Google en un cambio estratégico respecto a los chips de Nvidia

OpenAI ha comenzado a alquilar las Unidades de Procesamiento Tensorial (TPUs) de Google para impulsar ChatGPT y otros productos, marcando el primer uso significativo de chips que no son de Nvidia por parte del líder en IA. Esta sorprendente colaboración entre competidores surge mientras OpenAI busca diversificar su infraestructura de cómputo más allá de los centros de datos de Microsoft. La compañía espera que los TPUs en la nube de Google ayuden a reducir los costos de inferencia sin sacrificar el rendimiento para sus servicios de IA en rápido crecimiento.
OpenAI recurre a los TPUs de Google en un cambio estratégico respecto a los chips de Nvidia

En un cambio significativo para la industria de la inteligencia artificial, OpenAI ha comenzado a utilizar las Unidades de Procesamiento Tensorial (TPUs) de Google para potenciar ChatGPT y otros productos de IA, según fuentes familiarizadas con el acuerdo.

Este movimiento representa la primera vez que OpenAI incorpora de manera relevante chips que no son de Nvidia en su infraestructura. Hasta ahora, la compañía había sido uno de los mayores compradores mundiales de Unidades de Procesamiento Gráfico (GPUs) de Nvidia, que utiliza tanto para el entrenamiento de modelos de IA como para la inferencia, el proceso en el que los modelos hacen predicciones a partir de nueva información.

Esta sorprendente asociación entre dos grandes competidores en el ámbito de la IA señala el esfuerzo estratégico de OpenAI por diversificar sus recursos de cómputo más allá de la plataforma en la nube Azure de Microsoft. Aunque Microsoft sigue siendo el mayor inversionista de OpenAI y su principal proveedor de infraestructura, la relación ha mostrado señales de tensión en los últimos meses, ya que OpenAI busca una mayor independencia.

Para Google, el acuerdo representa un logro importante al expandir la disponibilidad externa de sus TPUs, que históricamente estaban reservadas para uso interno. Los chips TPU de Google están diseñados específicamente para tareas de aprendizaje automático y pueden ofrecer ventajas de rendimiento en ciertas cargas de trabajo de IA en comparación con las GPUs de uso general. La empresa ya ha asegurado otros clientes de alto perfil, incluyendo a Apple, Anthropic y Safe Superintelligence, dos compañías de IA fundadas por exlíderes de OpenAI.

OpenAI espera que el alquiler de TPUs a través de Google Cloud ayude a reducir los costos de cómputo de inferencia, lo cual se ha vuelto cada vez más importante a medida que la base de usuarios de ChatGPT ha crecido a cientos de millones. Sin embargo, fuentes indican que Google no está proporcionando a OpenAI acceso a sus chips TPU más potentes, manteniendo así cierta ventaja competitiva.

Este desarrollo se da en el marco de la estrategia más amplia de diversificación de infraestructura de OpenAI, que incluye el proyecto Stargate de 500 mil millones de dólares con SoftBank y Oracle, así como acuerdos multimillonarios con CoreWeave para obtener capacidad de cómputo adicional. Se informa además que la compañía está desarrollando su primer chip propio para reducir la dependencia de proveedores externos de hardware.

A medida que las demandas de cómputo en IA continúan aumentando, con costos anuales de OpenAI que se proyectan en miles de millones de dólares, esta colaboración demuestra cómo incluso los competidores más acérrimos del sector están dispuestos a colaborar para satisfacer los enormes requerimientos de cómputo que impulsan la industria.

Source:

Latest News