menu
close

AMD fordert Nvidia heraus mit Helios-AI-Server und OpenAI-Allianz

AMD hat sein neues Helios-AI-Server-System vorgestellt und eine strategische Partnerschaft mit OpenAI angekündigt. Die neue Rack-Scale-Infrastruktur, die auf den kommenden MI400-GPUs von AMD basiert, soll bei ihrem Marktstart 2026 eine zehnfache Leistungssteigerung für KI-Workloads bieten. OpenAI-CEO Sam Altman trat gemeinsam mit AMD-Chefin Lisa Su auf die Bühne, um die Zusammenarbeit zu verkünden. OpenAI lieferte Design-Feedback und wird die neuesten AMD-Chips einsetzen, um seine Recheninfrastruktur zu diversifizieren.
AMD fordert Nvidia heraus mit Helios-AI-Server und OpenAI-Allianz

AMD setzt zu einem großen Angriff auf Nvidias Vormachtstellung im KI-Hardwaremarkt an und kündigt sein neues Helios-AI-Server-System sowie eine bedeutende Partnerschaft mit OpenAI an.

Beim "Advancing AI 2025"-Event am 12. Juni in San Jose präsentierte AMD-CEO Lisa Su die umfassende Vision des Unternehmens für ein offenes KI-Ökosystem und zeigte sowohl aktuelle als auch zukünftige Hardware-Innovationen. Im Mittelpunkt stand die Vorschau auf Helios, AMDs nächste Rack-Scale-KI-Infrastruktur, die 2026 erscheinen soll.

"Zum ersten Mal haben wir jedes Element des Racks als ein einheitliches System konzipiert", erklärte Su während der Präsentation. "Stellen Sie sich Helios als ein Rack vor, das wie eine einzige, riesige Recheneinheit funktioniert."

Das Helios-System wird von AMDs kommenden Instinct MI400-GPUs angetrieben, die laut Unternehmen eine bis zu zehnfache Leistungssteigerung bei Inferenzaufgaben auf Mixture-of-Experts-Modellen im Vergleich zu aktuellen Beschleunigern bieten sollen. Diese Chips verfügen über 432 GB HBM4-Speicher und 19,6 TB/s Speicherbandbreite und positionieren sich damit als direkte Konkurrenten zu Nvidias kommender Vera-Rubin-Plattform.

In einer bedeutenden Branchenentwicklung trat OpenAI-CEO Sam Altman gemeinsam mit Su auf die Bühne und verkündete, dass der ChatGPT-Entwickler die neuesten AMD-Chips in seine Recheninfrastruktur integrieren wird. "Als du mir zum ersten Mal die technischen Daten erzählt hast, dachte ich: Das kann doch gar nicht sein, das klingt völlig verrückt", bemerkte Altman. "Das wird eine großartige Sache."

OpenAI hat während der GPU-Entwicklung Feedback an AMD gegeben. Altman bestätigte, dass bereits einige Workloads auf der MI300X laufen und man "extrem gespannt" auf die MI400-Serie sei. Diese Partnerschaft markiert einen bemerkenswerten Strategiewechsel für OpenAI, das bislang vor allem auf Nvidia-GPUs setzte, die über Anbieter wie Microsoft, Oracle und CoreWeave bezogen wurden.

Ebenfalls auf dem Event stellte AMD die Instinct MI350-GPU-Serie vor, die im dritten Quartal 2025 verfügbar sein wird. Diese Beschleuniger bieten eine vierfache Steigerung der KI-Rechenleistung gegenüber der Vorgängergeneration und bis zu 35-fache Verbesserungen bei der Inferenzleistung. Die MI350-Serie verfügt über 288 GB HBM3E-Speicher mit 8 TB/s Bandbreite und unterstützt neue FP4- und FP6-Datentypen, die für KI-Workloads optimiert wurden.

Im Gegensatz zu Nvidias proprietärem Ansatz setzt AMD auf offene Standards und Interoperabilität. Das Unternehmen nutzt für seine Rack-Systeme die Open-Source-Netzwerktechnologie UALink, während Nvidia auf das proprietäre NVLink setzt. "Die Zukunft der KI wird nicht von einem einzelnen Unternehmen oder in einem geschlossenen Ökosystem gebaut. Sie wird durch offene Zusammenarbeit in der gesamten Branche geprägt", so Su.

Trotz der ambitionierten Ankündigungen schloss die AMD-Aktie nach dem Event 2,2 % im Minus, was darauf hindeutet, dass die Wall Street kurzfristig skeptisch bleibt, ob AMD Nvidias geschätzten Marktanteil von 90 % signifikant angreifen kann. Doch mit einem prognostizierten KI-Chip-Marktvolumen von über 500 Milliarden US-Dollar bis 2028 positioniert sich AMD für langfristiges Wachstum in diesem rasant expandierenden Sektor.

Source:

Latest News