Grote cloudproviders versnellen hun strategieën rond eigen AI-chips en veranderen daarmee het concurrentielandschap van AI-infrastructuur ingrijpend.
Als bedrijf met een relatief hoge adoptiegraad van zelfontwikkelde chips is Google begonnen met de grootschalige uitrol van zijn op AI-inferentie gerichte TPU v6e-chips, die in de eerste helft van 2025 mainstream zijn geworden. TrendForce benadrukte dat de groei van Google's serverpark vooral wordt aangedreven door soevereine cloudprojecten en nieuwe datacentercapaciteit in Zuidoost-Azië. De TPU v6e, ook bekend als Trillium, betekent een grote stap vooruit in Google's AI-hardwareportfolio, met een 4,7 keer hogere piekcompute-prestatie per chip ten opzichte van de TPU v5e, en een verdubbeling van de capaciteit en bandbreedte van High Bandwidth Memory (HBM).
Amazon Web Services (AWS) richt zich op het opschalen van het eigen Trainium v2-platform en ontwikkelt tegelijkertijd verschillende varianten van Trainium v3, die in 2026 in massaproductie moeten gaan. AWS zal naar verwachting dit jaar alle Amerikaanse CSP’s aanvoeren in het aantal verscheepte, zelfontwikkelde AI-chips, waarmee het volume van 2024 wordt verdubbeld. De AWS Trainium2-chip levert tot 4 keer de prestaties van de eerste generatie Trainium, waarbij Trainium2-gebaseerde Amazon EC2 Trn2-instances speciaal zijn ontworpen voor generatieve AI en geoptimaliseerd voor het trainen en uitrollen van modellen met honderden miljarden tot meer dan een biljoen parameters.
Oracle richt zich, in vergelijking met andere grote CSP’s, meer op het inkopen van AI-servers en in-memory database (IMDB)-servers. In 2025 wil Oracle de uitrol van AI-serverinfrastructuur versnellen en zijn kern-cloud databaseservices integreren met AI-toepassingen. Oracle-medeoprichter Larry Ellison benadrukte de unieke positie van het bedrijf dankzij de enorme hoeveelheid bedrijfsdata die in zijn databases is opgeslagen. De nieuwste versie van de database, Oracle 23ai, is specifiek afgestemd op de behoeften van AI-workloads en is "de enige database die alle klantdata direct beschikbaar kan maken voor alle populaire AI-modellen, terwijl de privacy van de klant volledig behouden blijft."
De trend naar eigen AI-chips betekent een strategische koerswijziging voor cloudproviders die prestaties willen optimaliseren en tegelijkertijd kosten en afhankelijkheid van externe leveranciers willen verminderen. Deze eigen accelerators, zoals AWS Trainium en Google's TPU’s, concurreren direct met NVIDIA’s A100/H100 GPU’s, maar onderscheiden zich door naadloze cloudintegratie, voorspelbare prijzen en geoptimaliseerde infrastructuur.
Volgens de laatste analyse van TrendForce blijven grote Noord-Amerikaanse CSP’s de belangrijkste aanjagers van de groei in de AI-servermarkt, waarbij de gestage vraag ook wordt ondersteund door tier-2 datacenters en soevereine cloudprojecten in het Midden-Oosten en Europa. Ondanks geopolitieke spanningen en Amerikaanse exportbeperkingen die de Chinese markt beïnvloeden, wordt verwacht dat de wereldwijde verzending van AI-servers met 24,3% op jaarbasis zal groeien. Deze sterke groei onderstreept hoe AI steeds centraler komt te staan binnen cloudservices en zorgt voor aanzienlijke investeringen in infrastructuur door de hele sector.