I principali fornitori di servizi cloud stanno rapidamente avanzando nelle strategie per chip AI personalizzati, ridefinendo il panorama competitivo dell’infrastruttura AI.
Google, azienda con un tasso di adozione relativamente elevato di chip sviluppati internamente, ha avviato la distribuzione su larga scala dei suoi chip TPU v6e focalizzati sull’inferenza AI, diventati mainstream nella prima metà del 2025. TrendForce ha evidenziato che la crescita dei server Google è stata trainata principalmente da progetti di cloud sovrano e dalla nuova capacità dei data center nel Sud-est asiatico. Il TPU v6e, noto anche come Trillium, rappresenta un progresso significativo nell’offerta hardware AI di Google, vantando un incremento di 4,7 volte nelle prestazioni di calcolo di picco per chip rispetto al TPU v5e, con capacità e banda della High Bandwidth Memory (HBM) raddoppiate.
Amazon Web Services (AWS) si concentra sull’espansione della piattaforma proprietaria Trainium v2, mentre sviluppa diverse varianti di Trainium v3, la cui produzione di massa è prevista per il 2026. AWS dovrebbe guidare tutti i CSP statunitensi per spedizioni di chip AI proprietari quest’anno, raddoppiando i volumi del 2024. Il chip AWS Trainium2 offre fino a 4 volte le prestazioni della prima generazione Trainium, con le istanze Amazon EC2 Trn2 basate su Trainium2 progettate appositamente per l’AI generativa e ottimizzate per l’addestramento e il deployment di modelli con centinaia di miliardi fino a oltre un trilione di parametri.
Oracle, rispetto agli altri principali CSP, è più focalizzata sull’acquisto di server AI e server per database in-memory (IMDB). Nel 2025, Oracle prevede di intensificare il deployment dell’infrastruttura server AI e integrare i suoi servizi core di database cloud con applicazioni AI. Il co-fondatore di Oracle, Larry Ellison, ha sottolineato la posizione unica dell’azienda grazie all’enorme quantità di dati aziendali archiviati nei suoi database. L’ultima versione del suo database, Oracle 23ai, è specificamente progettata per le esigenze dei carichi di lavoro AI ed è "l’unico database in grado di rendere immediatamente disponibili tutti i dati dei clienti a tutti i modelli AI più diffusi, preservando pienamente la privacy dei clienti".
La tendenza verso chip AI personalizzati rappresenta una svolta strategica per i provider cloud che puntano a ottimizzare le prestazioni riducendo costi e dipendenza da fornitori terzi. Questi acceleratori personalizzati come AWS Trainium e Google TPU competono direttamente con le GPU NVIDIA A100/H100, ma si differenziano per l’integrazione cloud nativa, prezzi prevedibili e infrastruttura ottimizzata.
Secondo l’ultima analisi di TrendForce, i principali CSP nordamericani restano i principali motori della crescita del mercato dei server AI, con una domanda costante sostenuta anche da data center di secondo livello e progetti di cloud sovrano in Medio Oriente ed Europa. Nonostante le tensioni geopolitiche e le restrizioni alle esportazioni statunitensi che impattano sul mercato cinese, le spedizioni globali di server AI sono previste in crescita del 24,3% anno su anno. Questa crescita robusta sottolinea come l’AI stia diventando centrale nell’offerta dei servizi cloud, guidando investimenti infrastrutturali significativi in tutto il settore.