Важное изменение в инфраструктуре искусственного интеллекта: OpenAI начала арендовать специализированные тензорные процессоры Google (TPU) для работы ChatGPT и других своих ИИ-продуктов, сообщили источники, знакомые с соглашением.
Это первый случай, когда OpenAI в значительной степени использует чипы, не относящиеся к Nvidia, для своих ИИ-задач. Ранее компания была одним из крупнейших в мире покупателей графических процессоров Nvidia, которые доминируют на рынке ИИ-чипов. OpenAI рассчитывает, что TPU, доступные через Google Cloud, помогут снизить стоимость вычислений при инференсе — процессе, когда ИИ-модели используют обучение для прогнозирования или принятия решений.
Партнерство стало очередным шагом в стратегии OpenAI по диверсификации вычислительной инфраструктуры. В начале этого года Microsoft — крупнейший инвестор и основной облачный провайдер OpenAI — изменила эксклюзивные условия сотрудничества, перейдя к модели, в которой Microsoft получает «право первого отказа» на новые вычислительные мощности OpenAI. Это позволило OpenAI заключать дополнительные партнерства, включая последнее соглашение с Google.
Для Google привлечение OpenAI в качестве клиента демонстрирует, как технологический гигант успешно использует собственные ИИ-технологии для развития облачного бизнеса. TPU от Google, которые ранее применялись только внутри компании, обладают рядом преимуществ для определённых ИИ-задач, включая потенциально более высокую энергоэффективность и экономичность при инференсе по сравнению с GPU.
Однако у сотрудничества есть ограничения. По сообщениям, Google не предоставляет OpenAI свои самые мощные TPU, сохраняя определённые конкурентные границы между двумя соперниками в сфере ИИ. Такой избирательный подход подчеркивает сложную динамику в отрасли, где компании часто одновременно конкурируют и сотрудничают.
Сделка заключена на фоне острой конкуренции за вычислительные ресурсы для ИИ: крупнейшие технологические компании инвестируют миллиарды долларов в специализированное оборудование. Новейшее поколение TPU от Google, кодовое имя Trillium, обеспечивает значительный прирост производительности по сравнению с предыдущими версиями и предназначено для обработки огромных вычислительных нагрузок современных ИИ-моделей.