Важное изменение для индустрии искусственного интеллекта: OpenAI начала использовать тензорные процессоры Google (TPU) для работы ChatGPT и других своих AI-продуктов, сообщили источники, знакомые с деталями соглашения.
Этот шаг стал первым случаем, когда OpenAI по-настоящему интегрировала в свою инфраструктуру чипы, отличные от Nvidia. До сих пор компания была одним из крупнейших в мире покупателей графических процессоров Nvidia, которые используются как для обучения AI-моделей, так и для инференса — процесса, в ходе которого модели делают прогнозы на основе новых данных.
Неожиданное партнерство двух ведущих конкурентов в сфере искусственного интеллекта свидетельствует о стратегическом стремлении OpenAI диверсифицировать свои вычислительные ресурсы за пределами облачной платформы Microsoft Azure. Хотя Microsoft по-прежнему остается крупнейшим инвестором OpenAI и основным поставщиком инфраструктуры, в последние месяцы в их отношениях появились признаки напряженности, поскольку OpenAI стремится к большей независимости.
Для Google это соглашение стало значительным достижением: компания расширяет внешнюю доступность своих собственных TPU, которые ранее в основном использовались только внутри корпорации. Чипы TPU от Google специально разработаны для задач машинного обучения и могут обеспечивать преимущество по производительности для определённых AI-нагрузок по сравнению с универсальными GPU. Среди других крупных клиентов Google уже есть такие компании, как Apple, Anthropic и Safe Superintelligence — две последние были основаны бывшими руководителями OpenAI.
OpenAI надеется, что аренда TPU через Google Cloud поможет снизить стоимость инференса, что становится всё более важным по мере роста аудитории ChatGPT до сотен миллионов пользователей. Однако, по данным источников, Google не предоставляет OpenAI доступ к самым мощным версиям своих TPU, сохраняя определённое конкурентное преимущество.
Это развитие происходит на фоне более широкой стратегии диверсификации инфраструктуры OpenAI, включающей проект Stargate с SoftBank и Oracle стоимостью $500 млрд, а также многомиллиардные соглашения с CoreWeave для расширения вычислительных мощностей. По сообщениям, компания также разрабатывает свой первый собственный чип, чтобы снизить зависимость от внешних поставщиков аппаратного обеспечения.
По мере того как потребности в вычислениях для AI продолжают стремительно расти, а ежегодные расходы OpenAI могут достичь миллиардов долларов, это партнерство демонстрирует, что даже ожесточённые конкуренты в сфере искусственного интеллекта готовы к сотрудничеству ради удовлетворения колоссальных требований отрасли.