OpenAI ha chiarito la propria posizione riguardo ai chip AI di Google, affermando che, sebbene siano in corso test preliminari sui tensor processing unit (TPU) di Google, non ci sono piani immediati per un loro impiego su larga scala.
Il 30 giugno, un portavoce di OpenAI ha risposto a notizie secondo cui l’azienda avrebbe utilizzato i chip sviluppati internamente da Google per alimentare i propri prodotti. La precisazione è arrivata dopo che alcune fonti avevano riferito che OpenAI aveva iniziato a noleggiare i TPU di Google tramite Google Cloud, con l’obiettivo di ridurre i costi di calcolo per l’inferenza, che rappresentano oltre il 50% del budget computazionale di OpenAI.
Il leader dell’IA sta perseguendo una strategia diversificata sui chip per gestire le proprie esigenze computazionali in rapida crescita. Attualmente, OpenAI si affida in larga parte alle GPU di Nvidia, che detengono circa l’80% del mercato dei chip per l’intelligenza artificiale. Tuttavia, l’azienda sta integrando attivamente anche i chip AI di AMD nella propria infrastruttura. In un passaggio significativo, il CEO di OpenAI Sam Altman è apparso insieme alla CEO di AMD Lisa Su durante l’evento Advancing AI di AMD nel giugno 2025, confermando l’adozione dei chip MI300X di AMD da parte di OpenAI e l’interesse per le future piattaforme della serie MI400.
Parallelamente, OpenAI sta compiendo notevoli progressi nello sviluppo di un proprio chip AI personalizzato. Il team interno dell’azienda, guidato dall’ex responsabile dei TPU di Google Richard Ho, è cresciuto fino a circa 40 ingegneri che collaborano con Broadcom. Questa iniziativa sul silicio personalizzato punta a raggiungere quest’anno l’importante traguardo del “tape-out”, con la produzione di massa prevista per il 2026 presso Taiwan Semiconductor Manufacturing Company (TSMC).
L’approccio diversificato di OpenAI all’infrastruttura hardware riflette l’importanza strategica dell’hardware nella corsa all’IA. Poiché l’addestramento e l’esecuzione di modelli di intelligenza artificiale sempre più sofisticati richiedono risorse computazionali enormi, le aziende cercano di ottimizzare le prestazioni gestendo al contempo costi e dipendenze dalla catena di approvvigionamento. Con partner infrastrutturali come Microsoft, Oracle e CoreWeave, OpenAI si posiziona per mantenere la leadership tecnologica affrontando le sfide finanziarie legate alla scalabilità dei sistemi di intelligenza artificiale.