menu
close

OpenAI переходить на TPU від Google у стратегічному відході від чипів Nvidia

OpenAI почала орендувати тензорні процесори Google (TPU) для роботи ChatGPT та інших продуктів, що стало першим значним використанням не-Nvidia чипів лідером штучного інтелекту. Ця несподівана співпраця між конкурентами відбувається на тлі прагнення OpenAI диверсифікувати свою обчислювальну інфраструктуру поза межами дата-центрів Microsoft. Компанія сподівається, що хмарні TPU від Google допоможуть знизити витрати на інференс, зберігаючи продуктивність для швидкозростаючих AI-сервісів.
OpenAI переходить на TPU від Google у стратегічному відході від чипів Nvidia

У значному зрушенні для індустрії штучного інтелекту OpenAI почала використовувати тензорні процесори Google (TPU) для роботи ChatGPT та інших AI-продуктів, повідомляють джерела, знайомі з домовленістю.

Цей крок став першим випадком, коли OpenAI суттєво інтегрувала не-Nvidia чипи у свою інфраструктуру. До цього компанія була одним із найбільших у світі покупців графічних процесорів Nvidia (GPU), які використовувалися як для навчання AI-моделей, так і для інференсу — процесу, коли моделі роблять прогнози на основі нової інформації.

Ця несподівана співпраця між двома великими конкурентами на ринку AI свідчить про стратегічне прагнення OpenAI диверсифікувати свої обчислювальні ресурси поза межами хмарної платформи Microsoft Azure. Хоча Microsoft залишається найбільшим інвестором OpenAI та основним постачальником інфраструктури, останні місяці у відносинах між компаніями з’явилися ознаки напруги, оскільки OpenAI прагне більшої незалежності.

Для Google ця угода стала значною перемогою, оскільки компанія розширює зовнішню доступність власних TPU, які раніше використовувалися переважно для внутрішніх потреб. TPU від Google спеціально розроблені для задач машинного навчання й можуть забезпечувати переваги у продуктивності для окремих AI-навантажень порівняно з універсальними GPU. Серед інших відомих клієнтів Google вже є Apple, Anthropic та Safe Superintelligence — дві AI-компанії, засновані колишніми керівниками OpenAI.

OpenAI сподівається, що оренда TPU через Google Cloud допоможе знизити витрати на інференс, які стають дедалі важливішими на тлі зростання аудиторії ChatGPT до сотень мільйонів користувачів. Водночас джерела зазначають, що Google не надає OpenAI доступу до своїх найпотужніших TPU, зберігаючи певну конкурентну перевагу.

Ця подія відбувається на тлі ширшої стратегії диверсифікації інфраструктури OpenAI, яка включає проєкт Stargate вартістю $500 мільярдів із SoftBank та Oracle, а також багатомільярдні угоди з CoreWeave для додаткових обчислювальних потужностей. Також повідомляється, що компанія розробляє власний чип, щоб зменшити залежність від зовнішніх постачальників апаратного забезпечення.

Оскільки потреби в обчисленнях для AI продовжують зростати, а річні витрати OpenAI можуть сягнути мільярдів доларів, ця співпраця демонструє, що навіть запеклі конкуренти на ринку AI готові співпрацювати, щоб задовольнити величезні обчислювальні потреби, які рухають індустрію вперед.

Source:

Latest News