menu
close

OpenAI testează TPUs de la Google pentru a combate creșterea costurilor de inferență AI

OpenAI a început testarea unităților de procesare tensorială (TPU) de la Google, explorând alternative pentru a gestiona costurile tot mai mari ale inferenței AI, care consumă acum peste 50% din bugetul său de procesare. Deși nu semnalează o implementare la scară largă în viitorul apropiat, această mișcare strategică marchează prima utilizare semnificativă de hardware non-NVIDIA de către OpenAI și indică o îndepărtare de dependența exclusivă de infrastructura Microsoft. Această explorare ar putea remodela peisajul hardware-ului AI, contestând dominația NVIDIA și creând noi dinamici competitive între marii furnizori de tehnologie.
OpenAI testează TPUs de la Google pentru a combate creșterea costurilor de inferență AI

OpenAI, unul dintre cei mai mari clienți la nivel global ai unităților de procesare grafică (GPU) de la NVIDIA, a început testarea unităților de procesare tensorială (TPU) de la Google pentru alimentarea sistemelor sale AI, inclusiv ChatGPT. Această decizie vine în contextul în care compania se confruntă cu cheltuieli computaționale tot mai mari și caută soluții mai eficiente din punct de vedere al costurilor pentru operațiunile sale AI în continuă expansiune.

Potrivit analiștilor din industrie, inferența—procesul prin care modelele AI utilizează cunoștințele antrenate pentru a face predicții sau a lua decizii—consumă acum peste 50% din bugetul de procesare al OpenAI. TPUs, în special generațiile mai vechi, oferă un cost per inferență semnificativ mai mic comparativ cu GPU-urile NVIDIA, făcându-le o alternativă atractivă, chiar dacă nu ating performanțele de vârf ale celor mai noi cipuri NVIDIA.

„Deși TPUs mai vechi nu ating performanțele maxime ale celor mai noi cipuri Nvidia, arhitectura lor dedicată minimizează risipa de energie și resursele neutilizate, ceea ce le face mai eficiente din punct de vedere al costurilor la scară mare”, a explicat Charlie Dai, vicepreședinte și analist principal la Forrester. Analizele din industrie sugerează că Google poate obține putere de calcul AI la aproximativ 20% din costul suportat de cei care achiziționează GPU-uri NVIDIA de top, ceea ce implică un avantaj de eficiență a costurilor de 4-6 ori.

Totuși, OpenAI a clarificat că nu are planuri imediate pentru o implementare la scară largă a TPU-urilor. Un purtător de cuvânt a declarat pentru Reuters că firma se află „în faza de testare timpurie cu unele dintre TPU-urile Google”, dar în prezent „nu există planuri de implementare la scară”. Această abordare prudentă reflectă provocările tehnice semnificative implicate de tranziția infrastructurii, având în vedere că stack-ul software al OpenAI a fost optimizat în principal pentru GPU-uri.

Dincolo de considerentele legate de costuri, această mișcare reprezintă o diversificare strategică a surselor de procesare ale OpenAI dincolo de Microsoft, care a fost furnizorul exclusiv de infrastructură de centre de date până în ianuarie 2025. Compania a încheiat deja parteneriate cu Oracle și CoreWeave pentru programul său de infrastructură Stargate și dezvoltă propriul procesor AI personalizat, așteptat să atingă etapa de tape-out mai târziu în acest an.

Implicațiile pentru piața hardware-ului AI ar putea fi semnificative. Dacă va avea succes, adoptarea TPU-urilor de către OpenAI ar putea valida hardware-ul Google ca o alternativă viabilă la aproape monopolul NVIDIA în domeniul calculului AI de înaltă performanță. Acest lucru ar putea pune presiune pe NVIDIA să inoveze sau să ajusteze prețurile, creând în același timp noi dinamici competitive între furnizorii de cloud precum Google, Microsoft și Amazon, care concurează pentru dominația infrastructurii AI.

Source: Computerworld

Latest News