De største cloud-tjenesteudbydere intensiverer hurtigt deres strategier for specialudviklede AI-chips og omformer dermed konkurrencesituationen inden for AI-infrastruktur.
Som en virksomhed med relativt høj udbredelse af egne chips har Google påbegyndt masseudrulning af sine AI-inferensfokuserede TPU v6e-chips, som er blevet mainstream i første halvdel af 2025. TrendForce fremhæver, at Googles servervækst primært drives af suveræne cloud-projekter og nye datacenterkapaciteter i Sydøstasien. TPU v6e, også kendt som Trillium, markerer et væsentligt fremskridt i Googles AI-hardwareportefølje, med en 4,7 gange højere maksimal beregningskraft pr. chip sammenlignet med TPU v5e samt fordoblet kapacitet og båndbredde på High Bandwidth Memory (HBM).
Amazon Web Services (AWS) fokuserer på at skalere sin egen Trainium v2-platform, mens der udvikles flere varianter af Trainium v3, som forventes i masseproduktion i 2026. AWS forventes at føre blandt alle amerikanske cloud-udbydere, når det gælder leverancer af egne AI-chips i år, med en fordobling af volumen i forhold til 2024. AWS Trainium2-chippen leverer op til 4 gange så høj ydelse som første generation Trainium, og Trainium2-baserede Amazon EC2 Trn2-instanser er specialdesignet til generativ AI og optimeret til træning og udrulning af modeller med hundredvis af milliarder til over en billion parametre.
Oracle er, sammenlignet med de øvrige store cloud-udbydere, mere fokuseret på at indkøbe AI-servere og in-memory database (IMDB)-servere. I 2025 planlægger Oracle at øge udrulningen af AI-serverinfrastruktur og integrere sine centrale cloud-databaser med AI-applikationer. Oracles medstifter Larry Ellison har fremhævet virksomhedens unikke position takket være de enorme mængder virksomhedsdata, der er lagret i Oracles databaser. Den nyeste version, Oracle 23ai, er specifikt tilpasset AI-arbejdsbelastninger og er "den eneste database, der kan gøre alle kundedata øjeblikkeligt tilgængelige for alle populære AI-modeller, samtidig med at kundernes privatliv fuldt ud bevares."
Tendensen mod specialudviklede AI-chips repræsenterer et strategisk skifte for cloud-udbydere, der ønsker at optimere ydeevnen, reducere omkostninger og mindske afhængigheden af tredjepartsleverandører. Disse specialiserede acceleratorer som AWS Trainium og Googles TPU’er konkurrerer direkte med NVIDIAs A100/H100-GPU’er, men adskiller sig ved problemfri cloud-integration, forudsigelige priser og optimeret infrastruktur.
Ifølge den seneste analyse fra TrendForce er de store nordamerikanske cloud-udbydere fortsat de primære drivkræfter for væksten på AI-servermarkedet, med stabil efterspørgsel understøttet af både tier-2-datacentre og suveræne cloud-projekter i Mellemøsten og Europa. På trods af geopolitiske spændinger og amerikanske eksportrestriktioner, der påvirker det kinesiske marked, forventes den globale AI-serverleverance at vokse med 24,3 % år-til-år. Denne solide vækst understreger, hvordan AI bliver central for cloud-tjenester og driver betydelige investeringer i infrastruktur på tværs af branchen.