menu
close

Cloud-Giganten beschleunigen das Wettrennen um eigene KI-Chips

Google hat mit der Massenbereitstellung seiner TPU v6e-Chips für KI-Inferenz begonnen, die in der ersten Hälfte des Jahres 2025 zum Mainstream werden. Unterdessen konzentriert sich AWS auf die Skalierung seiner Trainium v2-Plattform und entwickelt mehrere Varianten des Trainium v3 für die Produktion im Jahr 2026. AWS wird in diesem Jahr voraussichtlich alle US-Cloud-Anbieter bei den Auslieferungen eigener KI-Chips anführen. Dieser Trend markiert einen bedeutenden Wandel, da große Cloud-Anbieter zunehmend eigene KI-Beschleuniger entwickeln und einsetzen, anstatt sich ausschließlich auf Drittanbieter-Lösungen zu verlassen.
Cloud-Giganten beschleunigen das Wettrennen um eigene KI-Chips

Führende Cloud-Service-Anbieter treiben ihre Strategien für eigene KI-Chips mit Hochdruck voran und verändern damit das Wettbewerbsumfeld für KI-Infrastrukturen grundlegend.

Als Unternehmen mit einer vergleichsweise hohen Akzeptanzrate selbstentwickelter Chips hat Google mit der Massenbereitstellung seiner auf KI-Inferenz spezialisierten TPU v6e-Chips begonnen, die in der ersten Hälfte des Jahres 2025 zum Mainstream werden. TrendForce hebt hervor, dass das Serverwachstum von Google vor allem durch souveräne Cloud-Projekte und neue Rechenzentrumskapazitäten in Südostasien getrieben wird. Die TPU v6e, auch bekannt als Trillium, stellt einen bedeutenden Fortschritt im KI-Hardware-Portfolio von Google dar, mit einer 4,7-fachen Spitzenrechenleistung pro Chip im Vergleich zur TPU v5e sowie einer Verdopplung der High Bandwidth Memory (HBM)-Kapazität und -Bandbreite.

Amazon Web Services (AWS) konzentriert sich auf die Skalierung seiner eigenen Trainium v2-Plattform und entwickelt gleichzeitig mehrere Varianten des Trainium v3, deren Massenproduktion für 2026 geplant ist. AWS wird in diesem Jahr voraussichtlich alle US-Cloud-Service-Provider bei den Auslieferungen eigener KI-Chips anführen und seine Volumina im Vergleich zu 2024 verdoppeln. Der AWS Trainium2-Chip liefert bis zu das Vierfache der Leistung der ersten Trainium-Generation. Die auf Trainium2 basierenden Amazon EC2 Trn2-Instanzen sind speziell für generative KI konzipiert und für das Training und die Bereitstellung von Modellen mit Hunderten von Milliarden bis zu über einer Billion Parametern optimiert.

Im Vergleich zu anderen großen Cloud-Anbietern fokussiert sich Oracle stärker auf den Zukauf von KI-Servern und In-Memory-Datenbank-Servern (IMDB). 2025 plant Oracle, den Ausbau der KI-Server-Infrastruktur zu verstärken und seine zentralen Cloud-Datenbankdienste mit KI-Anwendungen zu integrieren. Oracles Mitgründer Larry Ellison betont die einzigartige Position des Unternehmens aufgrund der riesigen Mengen an Unternehmensdaten in seinen Datenbanken. Die neueste Version, Oracle 23ai, ist speziell auf die Anforderungen von KI-Workloads zugeschnitten und laut Ellison „die einzige Datenbank, die alle Kundendaten sofort allen gängigen KI-Modellen zur Verfügung stellen kann – bei vollständigem Erhalt der Kundendaten-Privatsphäre“.

Der Trend zu eigenen KI-Chips stellt für Cloud-Anbieter eine strategische Neuausrichtung dar, um Leistung zu optimieren, Kosten zu senken und die Abhängigkeit von Drittanbietern zu reduzieren. Diese spezialisierten Beschleuniger wie AWS Trainium und Googles TPUs treten in direkten Wettbewerb mit NVIDIAs A100/H100-GPUs, unterscheiden sich jedoch durch nahtlose Cloud-Integration, kalkulierbare Preise und optimierte Infrastruktur.

Laut der aktuellen Analyse von TrendForce bleiben die großen nordamerikanischen Cloud-Anbieter die Haupttreiber des Wachstums im KI-Server-Markt. Gleichzeitig wird die stabile Nachfrage durch Tier-2-Rechenzentren und souveräne Cloud-Projekte im Nahen Osten und Europa gestützt. Trotz geopolitischer Spannungen und US-Exportbeschränkungen, die sich auf den chinesischen Markt auswirken, wird ein weltweites Wachstum der KI-Server-Auslieferungen um 24,3 % gegenüber dem Vorjahr erwartet. Dieses starke Wachstum unterstreicht, wie zentral KI für das Cloud-Geschäft geworden ist und wie sie erhebliche Infrastrukturinvestitionen in der gesamten Branche antreibt.

Source:

Latest News