Într-o mișcare ce subliniază dinamica în continuă schimbare a sectorului inteligenței artificiale, OpenAI a obținut un acord revoluționar pentru servicii cloud cu Google, unul dintre principalii săi competitori din domeniul AI.
Acordul, finalizat în luna mai după luni de negocieri, va oferi OpenAI capacitate suplimentară de calcul pentru a antrena și rula modelele sale AI tot mai solicitante din punct de vedere al resurselor. Acest parteneriat reprezintă cel mai recent efort al OpenAI de a-și diversifica infrastructura dincolo de Microsoft Azure, care a fost furnizorul său exclusiv de cloud până în ianuarie 2025.
Înțelegerea vine într-un moment critic pentru OpenAI, care a anunțat recent că veniturile sale anualizate au atins 10 miliarde de dolari în iunie 2025, dublându-se față de cele 5,5 miliarde de dolari din decembrie 2024. Cu 500 de milioane de utilizatori activi săptămânal și 3 milioane de clienți business plătitori, compania se confruntă cu o presiune tot mai mare de a-și scala infrastructura pentru a răspunde cererii în creștere.
Pentru Google Cloud, atragerea OpenAI ca și client reprezintă o victorie semnificativă, în ciuda tensiunilor competitive dintre cele două companii. ChatGPT rămâne una dintre cele mai mari provocări pentru dominația Google în domeniul căutărilor, în timp ce Gemini AI de la Google concurează direct cu produsele OpenAI. Cu toate acestea, ambele companii au pus pe primul plan considerentele de afaceri practice, lăsând rivalitățile deoparte.
Acest parteneriat vine după alte inițiative majore de infrastructură ale OpenAI, inclusiv proiectul Stargate de 500 de miliarde de dolari, anunțat în ianuarie 2025 în colaborare cu SoftBank și Oracle. Această inițiativă urmărește construirea unor centre de date AI uriașe în Statele Unite, cu o investiție inițială de 100 de miliarde de dolari.
Analiștii din industrie sugerează că acest acord semnalează o tendință mai largă, în care companiile AI adoptă strategii multi-cloud pentru a asigura suficiente resurse de calcul și pentru a evita dependența excesivă de un singur furnizor. Pe măsură ce antrenarea modelelor AI devine tot mai solicitantă din punct de vedere al resurselor, chiar și competitorii înverșunați pot ajunge să își împartă infrastructura pentru a face față cerințelor extraordinare ale dezvoltării AI avansate.