Glavni pružatelji cloud usluga ubrzano razvijaju strategije za vlastite AI čipove, mijenjajući konkurentski krajolik AI infrastrukture.
Kao tvrtka s relativno visokim stupnjem usvajanja vlastitih čipova, Google je započeo masovnu implementaciju svojih TPU v6e čipova namijenjenih AI inferenciji, koji su postali mainstream u prvoj polovici 2025. TrendForce ističe da je rast Googleovih servera uglavnom potaknut suverenim cloud projektima i novim kapacitetima podatkovnih centara u jugoistočnoj Aziji. TPU v6e, poznat i kao Trillium, predstavlja značajan napredak u Googleovom AI hardverskom portfelju, donoseći 4,7 puta veće vršne računalne performanse po čipu u odnosu na TPU v5e, uz udvostručeni kapacitet i propusnost High Bandwidth Memory (HBM).
Amazon Web Services (AWS) fokusira se na širenje vlastite Trainium v2 platforme, dok istovremeno razvija nekoliko varijanti Trainium v3, čija je masovna proizvodnja planirana za 2026. Očekuje se da će AWS ove godine predvoditi sve američke pružatelje cloud usluga po isporukama vlastitih AI čipova, udvostručujući količine iz 2024. AWS Trainium2 čip donosi do 4 puta bolje performanse u odnosu na prvu generaciju Trainiuma, a Trainium2-bazirane Amazon EC2 Trn2 instance posebno su dizajnirane za generativni AI i optimizirane za treniranje i implementaciju modela sa stotinama milijardi do više od trilijun parametara.
Oracle, za razliku od ostalih velikih pružatelja cloud usluga, više se fokusira na kupovinu AI servera i IMDB (in-memory database) servera. U 2025. Oracle planira pojačati implementaciju AI server infrastrukture i integrirati svoje ključne cloud baze podataka s AI aplikacijama. Suosnivač Oraclea, Larry Ellison, istaknuo je jedinstvenu poziciju tvrtke zahvaljujući ogromnoj količini poslovnih podataka pohranjenih u njihovim bazama. Najnovija verzija baze podataka, Oracle 23ai, posebno je prilagođena potrebama AI radnih opterećenja i "jedina je baza podataka koja može učiniti sve korisničke podatke trenutno dostupnima svim popularnim AI modelima, uz potpuno očuvanje privatnosti korisnika".
Trend prema prilagođenim AI čipovima predstavlja strateški zaokret za cloud pružatelje koji žele optimizirati performanse, smanjiti troškove i ovisnost o vanjskim dobavljačima. Ovi prilagođeni akceleratori, poput AWS Trainiuma i Googleovih TPU-ova, izravno konkuriraju NVIDIA-inim A100/H100 GPU-ovima, ali se razlikuju po besprijekornoj integraciji u cloud, predvidljivim cijenama i optimiziranoj infrastrukturi.
Prema najnovijoj analizi TrendForcea, glavni sjevernoamerički pružatelji cloud usluga i dalje su ključni pokretači rasta tržišta AI servera, uz stabilnu potražnju koju dodatno podupiru podatkovni centri druge razine i suvereni cloud projekti na Bliskom istoku i u Europi. Unatoč geopolitičkim napetostima i američkim izvoznim ograničenjima koja utječu na kinesko tržište, globalne isporuke AI servera predviđaju se s rastom od 24,3% na godišnjoj razini. Ovaj snažan rast naglašava kako AI postaje središnji dio cloud ponude i pokreće značajna ulaganja u infrastrukturu diljem industrije.