In una mossa che sottolinea le dinamiche in evoluzione del settore dell’intelligenza artificiale, OpenAI ha siglato un accordo rivoluzionario per i servizi cloud con Google, uno dei suoi principali concorrenti nell’ambito AI.
L’accordo, finalizzato a maggio dopo mesi di negoziati, fornirà a OpenAI una capacità di calcolo aggiuntiva per addestrare ed eseguire i suoi modelli di AI sempre più esigenti in termini di risorse. Questa partnership rappresenta l’ultimo sforzo di OpenAI per diversificare la propria infrastruttura oltre Microsoft Azure, che era stato il suo esclusivo fornitore cloud fino a gennaio 2025.
L’intesa arriva in un momento cruciale per OpenAI, che ha recentemente annunciato di aver raggiunto un fatturato annualizzato di 10 miliardi di dollari a giugno 2025, raddoppiando rispetto ai 5,5 miliardi di dicembre 2024. Con 500 milioni di utenti attivi settimanali e 3 milioni di clienti business paganti, l’azienda si trova sotto crescente pressione per potenziare la propria infrastruttura e soddisfare la domanda in aumento.
Per Google Cloud, assicurarsi OpenAI come cliente rappresenta una vittoria significativa nonostante la tensione competitiva tra le due società. ChatGPT rimane una delle principali sfide al dominio di Google nella ricerca, mentre Gemini AI di Google compete direttamente con i prodotti di OpenAI. Tuttavia, entrambe le aziende hanno dato priorità alle considerazioni pratiche di business rispetto alle rivalità concorrenziali.
Questa partnership segue altre importanti iniziative infrastrutturali di OpenAI, tra cui il progetto Stargate da 500 miliardi di dollari annunciato a gennaio 2025 in collaborazione con SoftBank e Oracle. L’obiettivo di questa iniziativa è costruire enormi data center AI negli Stati Uniti, con un investimento iniziale di 100 miliardi di dollari.
Secondo gli analisti di settore, questo accordo segnala una tendenza più ampia che vede le aziende AI adottare strategie multi-cloud per garantire risorse computazionali sufficienti ed evitare una dipendenza eccessiva da un unico fornitore. Poiché l’addestramento dei modelli AI richiede risorse sempre maggiori, anche i concorrenti più agguerriti potrebbero trovarsi a condividere infrastrutture per rispondere alle straordinarie esigenze dello sviluppo AI avanzato.