У значущому зсуві для інфраструктури штучного інтелекту OpenAI почала орендувати спеціалізовані тензорні процесори Google (TPU) для роботи ChatGPT та інших своїх AI-продуктів, повідомляють джерела, знайомі з домовленістю.
Це вперше, коли OpenAI суттєво використовує чипи, відмінні від Nvidia, для своїх AI-навантажень. Історично компанія була одним із найбільших у світі покупців графічних процесорів Nvidia, які домінують на ринку чипів для штучного інтелекту. OpenAI сподівається, що TPU, доступні через Google Cloud, допоможуть знизити вартість обчислень для інференсу — процесу, коли AI-моделі використовують своє навчання для прогнозування чи прийняття рішень.
Партнерство є ще одним кроком у стратегії OpenAI щодо диверсифікації своєї обчислювальної інфраструктури. Раніше цього року Microsoft — найбільший інвестор OpenAI та основний хмарний провайдер — змінила ексклюзивну угоду, перейшовши до моделі, де Microsoft має «право першої відмови» на нові обчислювальні потужності OpenAI у хмарі. Це дало змогу OpenAI укладати додаткові партнерства, зокрема й останнє з Google.
Для Google залучення OpenAI як клієнта демонструє, як технологічний гігант успішно використовує власні AI-розробки для розвитку хмарного бізнесу. TPU від Google, які раніше використовувалися лише всередині компанії, мають певні переваги для окремих AI-навантажень, зокрема потенційно кращу енергоефективність і вигіднішу вартість для задач інференсу порівняно з GPU.
Втім, у співпраці є свої межі. За повідомленнями, Google не здає OpenAI в оренду свої найпотужніші TPU, зберігаючи певні конкурентні обмеження між двома гравцями на ринку AI. Такий вибір підкреслює складну динаміку у сфері штучного інтелекту, де компанії часто одночасно конкурують і співпрацюють.
Угода укладається на тлі жорсткої конкуренції за обчислювальні ресурси для AI, коли великі технологічні компанії інвестують мільярди у спеціалізоване обладнання. Останнє покоління TPU від Google під кодовою назвою Trillium забезпечує суттєве зростання продуктивності порівняно з попередніми версіями й розроблене для обробки величезних обчислювальних потреб сучасних AI-моделей.