Într-o schimbare semnificativă pentru industria inteligenței artificiale, OpenAI a început să utilizeze Unități de Procesare Tensoriale (TPU) de la Google pentru a alimenta ChatGPT și celelalte produse AI ale sale, potrivit unor surse familiare cu această înțelegere.
Această mișcare reprezintă prima dată când OpenAI a integrat în mod semnificativ cipuri non-Nvidia în infrastructura sa. Până acum, compania a fost unul dintre cei mai mari cumpărători de unități de procesare grafică (GPU) Nvidia la nivel mondial, folosite atât pentru antrenarea modelelor AI, cât și pentru calculul de inferență — procesul prin care modelele fac predicții pe baza unor informații noi.
Acest parteneriat surprinzător între doi mari competitori AI semnalează efortul strategic al OpenAI de a-și diversifica resursele de calcul dincolo de platforma cloud Azure a Microsoft. Deși Microsoft rămâne cel mai mare investitor al OpenAI și principalul furnizor de infrastructură, relația dintre cele două companii a arătat semne de tensiune în ultimele luni, pe măsură ce OpenAI caută o independență mai mare.
Pentru Google, acordul reprezintă o victorie importantă, întrucât extinde disponibilitatea externă a TPU-urilor dezvoltate intern, care erau anterior rezervate pentru uz intern. Cipurile TPU ale Google sunt proiectate special pentru sarcini de învățare automată și pot oferi avantaje de performanță pentru anumite tipuri de încărcări AI, comparativ cu GPU-urile de uz general. Compania a atras deja alți clienți importanți, inclusiv Apple, Anthropic și Safe Superintelligence — două companii AI fondate de foști lideri OpenAI.
OpenAI speră că închirierea TPU-urilor prin Google Cloud va ajuta la reducerea costurilor de inferență, aspect tot mai important pe măsură ce baza de utilizatori ChatGPT a crescut la sute de milioane. Totuși, sursele indică faptul că Google nu oferă OpenAI acces la cele mai puternice cipuri TPU, păstrând astfel un anumit avantaj competitiv.
Această evoluție are loc pe fondul unei strategii mai ample de diversificare a infrastructurii la OpenAI, care include proiectul Stargate de 500 de miliarde de dolari cu SoftBank și Oracle, precum și acorduri de miliarde de dolari cu CoreWeave pentru capacitate suplimentară de calcul. De asemenea, compania dezvoltă, potrivit unor informații, primul său cip intern pentru a reduce dependența de furnizorii externi de hardware.
Pe măsură ce cererea de putere de calcul AI continuă să crească, iar costurile anuale ale OpenAI sunt estimate la miliarde de dolari, acest parteneriat demonstrează că, pentru a răspunde cerințelor uriașe ale industriei, chiar și cei mai aprigi competitori din domeniul AI sunt dispuși să colaboreze.