menu
close

OpenAI testa le TPU di Google per contrastare l’aumento dei costi di inferenza AI

OpenAI ha iniziato a testare le Tensor Processing Units (TPU) di Google mentre valuta alternative per gestire i crescenti costi dell’inferenza AI, che ora rappresentano oltre il 50% del suo budget di calcolo. Pur non indicando un imminente utilizzo su larga scala, questa mossa strategica segna il primo impiego significativo di hardware non-NVIDIA da parte di OpenAI e suggerisce un allontanamento dall’esclusiva dipendenza dall’infrastruttura Microsoft. L’esplorazione potrebbe ridefinire il panorama dell’hardware AI, sfidando il dominio di NVIDIA e creando nuove dinamiche competitive tra i principali fornitori tecnologici.
OpenAI testa le TPU di Google per contrastare l’aumento dei costi di inferenza AI

OpenAI, uno dei maggiori clienti mondiali delle unità di elaborazione grafica (GPU) di NVIDIA, ha iniziato a testare le Tensor Processing Units (TPU) di Google per alimentare i propri sistemi di intelligenza artificiale, incluso ChatGPT. Questa decisione arriva mentre l’azienda si trova a fronteggiare spese computazionali in costante aumento e cerca soluzioni più economiche per sostenere le sue crescenti operazioni AI.

Secondo gli analisti del settore, l’inferenza—il processo in cui i modelli AI utilizzano le conoscenze apprese per fare previsioni o prendere decisioni—assorbe ora oltre il 50% del budget di calcolo di OpenAI. Le TPU, in particolare le generazioni più datate, offrono un costo per inferenza significativamente inferiore rispetto alle GPU NVIDIA, rendendole un’alternativa interessante nonostante possano non raggiungere le prestazioni di picco dei chip NVIDIA più recenti.

"Sebbene le TPU più vecchie non raggiungano le prestazioni di punta dei chip Nvidia di ultima generazione, la loro architettura dedicata riduce al minimo gli sprechi energetici e le risorse inattive, rendendole più convenienti su larga scala", ha spiegato Charlie Dai, VP e principal analyst di Forrester. Le analisi di settore suggeriscono che Google potrebbe ottenere potenza di calcolo AI a circa il 20% del costo sostenuto da chi acquista GPU NVIDIA di fascia alta, con un vantaggio di efficienza economica stimato tra 4 e 6 volte.

Tuttavia, OpenAI ha chiarito di non avere piani immediati per un’implementazione massiccia delle TPU. Un portavoce ha dichiarato a Reuters che l’azienda è in "fase di test iniziale con alcune TPU di Google" ma al momento "non prevede di adottarle su larga scala". Questo approccio prudente riflette le notevoli sfide tecniche legate alla transizione dell’infrastruttura, dato che lo stack software di OpenAI è stato ottimizzato principalmente per le GPU.

Oltre alle considerazioni sui costi, questa mossa rappresenta una diversificazione strategica delle fonti di calcolo di OpenAI al di là di Microsoft, che è stata il suo unico fornitore di infrastruttura data center fino a gennaio 2025. L’azienda ha già stretto partnership con Oracle e CoreWeave per il programma infrastrutturale Stargate e sta sviluppando un proprio processore AI personalizzato, il cui tape-out è previsto entro la fine dell’anno.

Le implicazioni per il mercato dell’hardware AI potrebbero essere significative. Se avrà successo, l’adozione delle TPU da parte di OpenAI potrebbe confermare l’hardware di Google come valida alternativa al quasi-monopolio di NVIDIA nel calcolo AI ad alte prestazioni. Questo potrebbe spingere NVIDIA a innovare o rivedere i prezzi, creando nuove dinamiche competitive tra fornitori cloud come Google, Microsoft e Amazon, in lotta per la leadership nell’infrastruttura AI.

Source: Computerworld

Latest News