In una svolta significativa per il settore dell’intelligenza artificiale, OpenAI ha iniziato a utilizzare le Tensor Processing Units (TPU) di Google per alimentare ChatGPT e gli altri suoi prodotti di IA, secondo fonti vicine all’accordo.
La mossa rappresenta la prima volta in cui OpenAI integra in modo rilevante chip diversi da quelli Nvidia nella propria infrastruttura. Finora, l’azienda è stata uno dei maggiori acquirenti mondiali delle unità di elaborazione grafica (GPU) di Nvidia, utilizzate sia per l’addestramento dei modelli di IA che per il calcolo di inferenza—il processo in cui i modelli effettuano previsioni su nuove informazioni.
Questa partnership a sorpresa tra due grandi concorrenti dell’IA segnala l’impegno strategico di OpenAI a diversificare le proprie risorse di calcolo oltre la piattaforma cloud Azure di Microsoft. Sebbene Microsoft rimanga il maggiore investitore e principale fornitore di infrastruttura per OpenAI, negli ultimi mesi il loro rapporto ha mostrato segni di tensione mentre OpenAI cerca una maggiore indipendenza.
Per Google, l’accordo rappresenta una vittoria significativa poiché amplia la disponibilità esterna delle sue TPU proprietarie, storicamente riservate all’uso interno. I chip TPU di Google sono progettati su misura per compiti di machine learning e possono offrire vantaggi prestazionali per determinati carichi di lavoro di IA rispetto alle GPU generiche. L’azienda ha già acquisito altri clienti di alto profilo, tra cui Apple, Anthropic e Safe Superintelligence—due società di IA fondate da ex leader di OpenAI.
OpenAI spera che il noleggio delle TPU tramite Google Cloud contribuisca a ridurre i costi del calcolo di inferenza, diventato sempre più importante man mano che la base utenti di ChatGPT è cresciuta fino a raggiungere centinaia di milioni di persone. Tuttavia, secondo alcune fonti, Google non sta fornendo a OpenAI l’accesso ai suoi chip TPU più potenti, mantenendo così un certo vantaggio competitivo.
Questo sviluppo si inserisce nella più ampia strategia di diversificazione infrastrutturale di OpenAI, che comprende il progetto Stargate da 500 miliardi di dollari con SoftBank e Oracle, e accordi plurimiliardari con CoreWeave per capacità di calcolo aggiuntiva. L’azienda starebbe inoltre sviluppando il suo primo chip proprietario per ridurre la dipendenza dai fornitori esterni di hardware.
Con la crescente domanda di calcolo per l’IA e i costi annuali di OpenAI che si prevede raggiungeranno miliardi di dollari, questa partnership dimostra come anche i più agguerriti concorrenti del settore siano disposti a collaborare per soddisfare le enormi esigenze di calcolo che stanno guidando l’industria.