Penyedia layanan cloud utama tengah mempercepat strategi chip AI kustom mereka, mengubah lanskap persaingan infrastruktur AI.
Sebagai perusahaan dengan tingkat adopsi chip buatan sendiri yang relatif tinggi, Google telah memulai penyebaran massal chip TPU v6e yang berfokus pada inferensi AI, dan telah menjadi arus utama pada paruh pertama 2025. TrendForce menyoroti bahwa pertumbuhan server Google terutama didorong oleh proyek cloud berdaulat dan kapasitas pusat data baru di Asia Tenggara. TPU v6e, juga dikenal sebagai Trillium, merupakan kemajuan signifikan dalam portofolio perangkat keras AI Google, dengan peningkatan performa komputasi puncak per chip hingga 4,7x dibanding TPU v5e, serta kapasitas dan bandwidth High Bandwidth Memory (HBM) yang berlipat ganda.
Amazon Web Services (AWS) fokus pada perluasan platform Trainium v2 buatan sendiri sekaligus mengembangkan beberapa varian Trainium v3 yang dijadwalkan untuk produksi massal pada 2026. AWS diperkirakan akan memimpin pengiriman chip AI internal di antara seluruh penyedia layanan cloud AS tahun ini, menggandakan volume 2024. Chip AWS Trainium2 menghadirkan performa hingga 4x lipat dari Trainium generasi pertama, dengan instans Amazon EC2 Trn2 berbasis Trainium2 yang dirancang khusus untuk AI generatif dan dioptimalkan untuk pelatihan serta penerapan model dengan ratusan miliar hingga triliunan parameter.
Dibandingkan penyedia cloud besar lainnya, Oracle lebih fokus pada pembelian server AI dan server basis data in-memory (IMDB). Pada 2025, Oracle berencana meningkatkan penyebaran infrastruktur server AI dan mengintegrasikan layanan basis data cloud inti mereka dengan aplikasi AI. Co-founder Oracle, Larry Ellison, menyoroti posisi unik perusahaan berkat besarnya data perusahaan yang tersimpan di basis data mereka. Versi terbaru basis data mereka, Oracle 23ai, secara khusus disesuaikan untuk kebutuhan beban kerja AI dan disebut sebagai "satu-satunya basis data yang dapat membuat seluruh data pelanggan langsung tersedia untuk semua model AI populer sambil sepenuhnya menjaga privasi pelanggan."
Tren menuju chip AI kustom ini merupakan langkah strategis bagi penyedia cloud untuk mengoptimalkan performa sekaligus menekan biaya dan ketergantungan pada vendor pihak ketiga. Akselerator kustom seperti AWS Trainium dan Google TPU bersaing langsung dengan GPU NVIDIA A100/H100, namun membedakan diri melalui integrasi cloud yang mulus, harga yang lebih terprediksi, serta infrastruktur yang dioptimalkan.
Menurut analisis terbaru TrendForce, penyedia layanan cloud utama Amerika Utara tetap menjadi pendorong utama pertumbuhan pasar server AI, dengan permintaan stabil juga didukung oleh pusat data tier-2 dan proyek cloud berdaulat di Timur Tengah dan Eropa. Meski ketegangan geopolitik dan pembatasan ekspor AS berdampak pada pasar Tiongkok, pengiriman server AI global diproyeksikan tumbuh 24,3% secara tahunan. Pertumbuhan kuat ini menegaskan bagaimana AI menjadi pusat penawaran layanan cloud dan mendorong investasi infrastruktur besar-besaran di seluruh industri.