In un cambiamento significativo per l'infrastruttura dell'intelligenza artificiale, OpenAI ha iniziato a noleggiare le Tensor Processing Unit (TPU) specializzate di Google per alimentare ChatGPT e gli altri suoi prodotti AI, secondo fonti vicine all'accordo.
Si tratta della prima volta che OpenAI utilizza in modo rilevante chip diversi da quelli Nvidia per i propri carichi di lavoro AI. Storicamente, l'azienda è stata uno dei maggiori acquirenti al mondo delle unità di elaborazione grafica (GPU) di Nvidia, che dominano il mercato dei chip per l'intelligenza artificiale. OpenAI spera che le TPU, accessibili tramite Google Cloud, possano contribuire a ridurre i costi dell'inferenza computazionale, ovvero il processo in cui i modelli AI utilizzano l'addestramento per fare previsioni o prendere decisioni.
La partnership rappresenta un ulteriore passo nella strategia di OpenAI di diversificare la propria infrastruttura di calcolo. All'inizio di quest'anno, Microsoft—il maggiore investitore di OpenAI e principale fornitore cloud—ha modificato il loro accordo esclusivo, passando a un modello in cui Microsoft detiene un "diritto di prelazione" sulla nuova capacità di calcolo cloud di OpenAI. Questo cambiamento ha permesso a OpenAI di stringere ulteriori collaborazioni, inclusa questa recente con Google.
Per Google, assicurarsi OpenAI come cliente dimostra come il colosso tecnologico sia riuscito a sfruttare la propria tecnologia AI interna per far crescere il business cloud. Le TPU di Google, storicamente riservate all'uso interno, offrono vantaggi specifici per alcuni carichi di lavoro AI, tra cui una potenziale maggiore efficienza energetica e convenienza economica per le attività di inferenza rispetto alle GPU.
Tuttavia, la collaborazione presenta dei limiti. Secondo alcune fonti, Google non sta noleggiando a OpenAI le sue TPU più potenti, mantenendo così alcune barriere competitive tra i due rivali nel campo dell'AI. Questo approccio selettivo evidenzia le dinamiche complesse del settore, in cui le aziende spesso competono e collaborano allo stesso tempo.
L'accordo arriva in un momento di forte competizione per le risorse di calcolo AI, con le principali aziende tecnologiche che investono miliardi in hardware specializzato. L'ultima generazione di TPU di Google, nome in codice Trillium, offre miglioramenti significativi rispetto alle versioni precedenti ed è progettata per gestire le enormi richieste computazionali dei modelli AI più avanzati.