Stora molntjänstleverantörer driver nu snabbt på sina strategier kring egenutvecklade AI-chip, vilket omformar konkurrenslandskapet för AI-infrastruktur.
Som ett företag med relativt hög andel egenutvecklade chip har Google påbörjat massutrullning av sina AI-inferensfokuserade TPU v6e-chip, vilka blivit mainstream under första halvan av 2025. TrendForce framhåller att Googles servertillväxt främst drivits av suveräna molnprojekt och ny datacenterkapacitet i Sydostasien. TPU v6e, även känd som Trillium, representerar ett betydande framsteg i Googles AI-hårdvaruportfölj, med en 4,7 gånger högre maximal beräkningskapacitet per chip jämfört med TPU v5e, samt dubblerad kapacitet och bandbredd för High Bandwidth Memory (HBM).
Amazon Web Services (AWS) fokuserar på att skala upp sin egenutvecklade Trainium v2-plattform samtidigt som flera varianter av Trainium v3 utvecklas för massproduktion 2026. AWS förväntas leda alla amerikanska molntjänstleverantörer vad gäller leveranser av egna AI-chip i år, med en fördubbling av volymerna jämfört med 2024. AWS Trainium2-chippet levererar upp till fyra gånger prestandan jämfört med första generationens Trainium, och Trainium2-baserade Amazon EC2 Trn2-instanser är specialbyggda för generativ AI och optimerade för träning och driftsättning av modeller med hundratals miljarder till över en biljon parametrar.
Oracle, jämfört med andra stora molnleverantörer, fokuserar mer på att köpa in AI-servrar och in-memory-databasservrar (IMDB). Under 2025 planerar Oracle att intensifiera utbyggnaden av AI-serverinfrastruktur och integrera sina centrala molndatabastjänster med AI-applikationer. Oracles medgrundare Larry Ellison har lyft fram företagets unika position tack vare den enorma mängden företagsdata som lagras i deras databaser. Den senaste versionen, Oracle 23ai, är särskilt anpassad för AI-arbetslaster och är "den enda databasen som kan göra all kunddata omedelbart tillgänglig för alla populära AI-modeller samtidigt som kundens integritet fullt ut bevaras."
Trenden mot egenutvecklade AI-chip innebär ett strategiskt skifte för molnleverantörer som vill optimera prestanda, minska kostnader och minska beroendet av tredjepartsleverantörer. Dessa specialanpassade acceleratorer, som AWS Trainium och Googles TPU:er, konkurrerar direkt med NVIDIAs A100/H100-GPU:er men särskiljer sig genom sömlös molnintegration, förutsägbara priser och optimerad infrastruktur.
Enligt TrendForces senaste analys är de stora nordamerikanska molntjänstleverantörerna fortsatt de främsta drivkrafterna bakom tillväxten på AI-servermarknaden, där även stabil efterfrågan från tier-2-datacenter och suveräna molnprojekt i Mellanöstern och Europa bidrar. Trots geopolitiska spänningar och amerikanska exportrestriktioner som påverkar den kinesiska marknaden, förväntas den globala leveransen av AI-servrar öka med 24,3 procent på årsbasis. Denna starka tillväxt understryker hur AI blir alltmer central i molntjänsteutbudet och driver på omfattande infrastrukturinvesteringar i hela branschen.