Advanced Micro Devices (AMD) verschärft mit der Einführung seiner neuen Instinct MI350-Serie den Wettbewerb um die Vorherrschaft im KI-Chip-Markt und nimmt damit gezielt Nvidias Dominanz ins Visier. Laut CEO Lisa Su übertreffen die neuen Beschleuniger sogar die konkurrierenden Blackwell-Prozessoren von Nvidia.
Beim 'Advancing AI 2025'-Event am 13. Juni in San Jose stellte Su die Modelle MI350X und MI355X vor, die bereits seit Anfang des Monats ausgeliefert werden. Die neuen Chips bieten eine beeindruckende Steigerung der Inferenzleistung um das 35-Fache gegenüber ihren Vorgängern – der größte Generationssprung in der Unternehmensgeschichte von AMD.
Die MI350-Serie verfügt über 288 GB HBM3E-Speicher – mehr als einzelne Blackwell-GPUs von Nvidia – und unterstützt neue Datenformate wie FP4 und FP6. AMD gibt an, dass der MI355X durch einen geringeren Stromverbrauch bis zu 40 % mehr Tokens pro Dollar liefern kann als die Konkurrenz von Nvidia, was insbesondere für den wirtschaftlichen Einsatz von KI-Lösungen von Vorteil ist.
Darüber hinaus kündigte Su die AMD Developer Cloud an – einen neuen Service, der es Entwicklern ermöglicht, über Cloud Computing auf AMDs MI300- und MI350-GPUs zuzugreifen, ohne die Hardware selbst erwerben zu müssen. Damit folgt AMD einem ähnlichen Angebot von Nvidia und will seine Präsenz im KI-Ökosystem stärken, indem die eigene Hardware für Entwickler leichter zugänglich wird.
Mit Blick in die Zukunft gab Su einen Ausblick auf die nächste Chip-Generation MI400 und die 'Helios'-KI-Rack-Infrastruktur, die 2026 auf den Markt kommen sollen. Die MI400-Serie wird bis zu 432 GB HBM4-Speicher mit Übertragungsraten von bis zu 19,6 TB pro Sekunde bieten und ist als direkte Konkurrenz zu Nvidias GB300 Blackwell Ultra-Prozessoren sowie der kommenden Rubin-KI-GPU konzipiert.
Der Wettbewerb im KI-Chip-Markt spitzt sich weiter zu: Su prognostizierte, dass der Markt bis 2028 ein Volumen von über 500 Milliarden US-Dollar erreichen wird – eine Zahl, die einst als unrealistisch galt. AMDs entschlossene Expansion im Bereich KI-Beschleunigung erfolgt vor dem Hintergrund einer steigenden Nachfrage großer Tech-Unternehmen wie Microsoft, Meta und OpenAI. Deren CEO Sam Altman trat gemeinsam mit Su auf die Bühne und kündigte an, dass OpenAI künftig AMD-Chips einsetzen werde.