Mabilis na pinapaunlad ng mga pangunahing cloud service provider ang kanilang mga estratehiya sa custom AI chips, na muling binabago ang kompetisyon sa larangan ng AI infrastructure.
Bilang isang kumpanya na may mataas na antas ng paggamit ng sariling chips, sinimulan na ng Google ang malawakang pagpapalaganap ng kanilang TPU v6e chips na nakatuon sa AI inference, na naging pangunahing teknolohiya sa unang kalahati ng 2025. Binanggit ng TrendForce na ang paglago ng server ng Google ay pangunahing dulot ng mga sovereign cloud projects at bagong kapasidad ng data center sa Southeast Asia. Ang TPU v6e, na kilala rin bilang Trillium, ay isang malaking hakbang sa hardware portfolio ng Google para sa AI, na may 4.7x na pagtaas sa peak compute performance kada chip kumpara sa TPU v5e, at doble ang High Bandwidth Memory (HBM) capacity at bandwidth.
Ang Amazon Web Services (AWS) ay nakatuon sa pagpapalawak ng sariling Trainium v2 platform habang gumagawa ng iba’t ibang bersyon ng Trainium v3 na nakatakdang iproduce nang maramihan sa 2026. Inaasahang mangunguna ang AWS sa lahat ng US CSPs sa dami ng sariling AI chip na ipapadala ngayong taon, na doble ang volume kumpara noong 2024. Ang AWS Trainium2 chip ay nagbibigay ng hanggang 4x na performance kumpara sa unang henerasyon ng Trainium, at ang mga Trainium2-based Amazon EC2 Trn2 instances ay partikular na idinisenyo para sa generative AI at optimized para sa training at deployment ng mga modelong may daan-daang bilyon hanggang trilyong parameters.
Ang Oracle, kumpara sa iba pang pangunahing CSPs, ay mas nakatuon sa pagbili ng AI servers at in-memory database (IMDB) servers. Sa 2025, plano ng Oracle na palakasin ang deployment ng AI server infrastructure at isama ang kanilang pangunahing cloud database services sa AI applications. Ipinagmamalaki ni Larry Ellison, co-founder ng Oracle, ang natatanging posisyon ng kumpanya dahil sa napakalaking dami ng enterprise data na nakaimbak sa kanilang databases. Ang pinakabagong bersyon ng kanilang database, ang Oracle 23ai, ay partikular na idinisenyo para sa pangangailangan ng AI workloads at ito lamang ang database na kayang gawing instantly available ang lahat ng customer data sa lahat ng popular na AI models habang lubos na pinananatili ang privacy ng customer.
Ang pag-usbong ng custom AI chips ay nagpapakita ng estratehikong pagbabago para sa mga cloud provider na nagnanais na i-optimize ang performance habang binabawasan ang gastos at pagdepende sa mga third-party na vendor. Ang mga custom accelerators tulad ng AWS Trainium at Google TPU ay direktang kakumpitensya ng NVIDIA A100/H100 GPUs ngunit naiiba dahil sa seamless cloud integration, predictable na presyo, at optimized na infrastructure.
Ayon sa pinakahuling pagsusuri ng TrendForce, ang mga pangunahing North American CSPs ang nananatiling pangunahing tagapagpasigla ng paglago ng AI server market, na sinusuportahan din ng matatag na demand mula sa tier-2 data centers at sovereign cloud projects sa Middle East at Europe. Sa kabila ng tensyong geopolitikal at mga restriksyon ng US sa export na nakaapekto sa merkado ng China, inaasahang lalago ng 24.3% taon-taon ang global AI server shipments. Ipinapakita ng matatag na paglago na ito kung paano nagiging sentro ang AI sa mga alok ng cloud services at nagtutulak ng malalaking pamumuhunan sa infrastructure sa buong industriya.