menu
close

OpenAI folosește TPUs de la Google într-o schimbare strategică dincolo de Nvidia

OpenAI a început să utilizeze unitățile de procesare tensorială (TPU) ale Google pentru a alimenta ChatGPT și alte produse, marcând prima adoptare semnificativă a unor cipuri non-Nvidia. Acest parteneriat vine după decizia OpenAI de a se diversifica dincolo de serviciile cloud Azure ale Microsoft și reprezintă o victorie majoră pentru Google Cloud. Colaborarea răspunde cererii tot mai mari de putere de calcul a OpenAI și evidențiază succesul Google în comercializarea hardware-ului său AI specializat.
OpenAI folosește TPUs de la Google într-o schimbare strategică dincolo de Nvidia

Într-o schimbare semnificativă pentru infrastructura AI, OpenAI a început să închirieze unitățile specializate de procesare tensorială (TPU) ale Google pentru a alimenta ChatGPT și celelalte produse AI ale sale, potrivit unor surse familiare cu această înțelegere.

Este pentru prima dată când OpenAI utilizează în mod semnificativ cipuri non-Nvidia pentru sarcinile sale AI. Compania a fost istoric unul dintre cei mai mari cumpărători de unități de procesare grafică (GPU) Nvidia din lume, acestea dominând piața cipurilor AI. OpenAI speră că TPUs, la care are acces prin Google Cloud, vor ajuta la reducerea costurilor de inferență — procesul prin care modelele AI folosesc antrenamentul pentru a face predicții sau a lua decizii.

Parteneriatul reprezintă un nou pas în strategia OpenAI de diversificare a infrastructurii sale de calcul. La începutul acestui an, Microsoft — cel mai mare investitor și principalul furnizor cloud al OpenAI — a modificat acordul exclusiv, trecând la un model în care Microsoft are „drept de prim refuz” asupra noilor capacități de cloud computing ale OpenAI. Această schimbare a permis OpenAI să caute parteneriate suplimentare, inclusiv cel mai recent cu Google.

Pentru Google, atragerea OpenAI ca și client demonstrează modul în care gigantul tehnologic și-a valorificat cu succes tehnologia AI internă pentru a-și crește afacerea cloud. TPUs de la Google, care erau rezervate istoric pentru uz intern, oferă avantaje specifice pentru anumite sarcini AI, inclusiv o eficiență energetică și un raport cost-eficiență potențial mai bun pentru inferență comparativ cu GPU-urile.

Totuși, colaborarea are limitele sale. Potrivit rapoartelor, Google nu închiriază cele mai puternice TPUs către OpenAI, menținând anumite granițe competitive între cei doi rivali AI. Această abordare selectivă evidențiază dinamica complexă din sectorul AI, unde companiile sunt adesea simultan competitori și colaboratori.

Acordul vine pe fondul unei competiții intense pentru resursele de calcul AI, marile companii tehnologice investind miliarde în hardware specializat. Cea mai recentă generație de TPU de la Google, cu numele de cod Trillium, oferă îmbunătățiri semnificative de performanță față de versiunile anterioare și este proiectată pentru a face față cerințelor uriașe de calcul ale modelelor AI avansate.

Source:

Latest News