menu
close

NVIDIA öffnet NVLink-Technologie zur Neugestaltung von KI-Infrastrukturen

NVIDIA hat am 19. Mai 2025 auf der Computex in Taiwan NVLink Fusion vorgestellt. Damit können Partner nicht-NVIDIA-CPUs und -GPUs mit der Hochgeschwindigkeits-Interconnect-Technologie von NVIDIA integrieren. Dieser strategische Schritt ermöglicht es Unternehmen wie MediaTek, Marvell und Qualcomm, halb-kundenspezifische KI-Infrastrukturen statt nur halb-kundenspezifischer Chips zu entwickeln. Die Technologie liefert 1,8 TB/s bidirektionale Bandbreite pro GPU – 14-mal schneller als PCIe Gen5 – und positioniert NVIDIA im Zentrum der nächsten Generation von KI-Fabriken, auch wenn die Systeme nicht ausschließlich mit NVIDIA-Chips gebaut werden.
NVIDIA öffnet NVLink-Technologie zur Neugestaltung von KI-Infrastrukturen

NVIDIA vollzieht mit der Vorstellung von NVLink Fusion einen bedeutenden strategischen Wandel im Bereich der KI-Infrastruktur. Die neue Siliziumtechnologie öffnet den bislang proprietären Hochgeschwindigkeits-Interconnect für Hardware-Hersteller von Drittanbietern.

Angekündigt wurde NVLink Fusion von CEO Jensen Huang auf der Computex 2025 in Taipeh. Die Technologie ermöglicht es Kunden und Partnern, nicht-NVIDIA-CPUs und -GPUs gemeinsam mit NVIDIA-Produkten einzusetzen. „NVLink Fusion ist dafür da, damit Sie halb-kundenspezifische KI-Infrastrukturen bauen können, nicht nur halb-kundenspezifische Chips“, erklärte Huang während seiner Keynote.

Die Technologie hat bereits eine beeindruckende Liste von frühen Partnern gewonnen. MediaTek, Marvell, Alchip Technologies, Astera Labs, Synopsys und Cadence gehören zu den ersten Unternehmen, die NVLink Fusion in ihre kundenspezifischen Silizium-Designs integrieren. Darüber hinaus planen Fujitsu und Qualcomm Technologies, maßgeschneiderte CPUs zu entwickeln, die mit NVIDIA-GPUs gekoppelt werden können, um Hochleistungs-KI-Fabriken zu schaffen.

NVLink Fusion stellt einen technischen Durchbruch in der Entwicklung von KI-Infrastrukturen dar. Die fünfte Generation der NVLink-Plattform bietet 1,8 TB/s bidirektionale Bandbreite pro GPU – 14-mal schneller als PCIe Gen5 – und ermöglicht nahtlose Hochgeschwindigkeitskommunikation für komplexe große Modelle. Dieser Leistungsschub ist für KI-Workloads entscheidend, da jede Verdopplung der NVLink-Bandbreite zu einer 1,3- bis 1,4-fachen Steigerung der KI-Leistung auf Rack-Ebene führen kann.

Für Cloud-Anbieter eröffnet NVLink Fusion die Möglichkeit, KI-Fabriken mit Millionen von GPUs zu skalieren – unter Verwendung beliebiger ASICs, NVIDIA-Rack-Scale-Systeme und der End-to-End-Netzwerkplattform von NVIDIA, die bis zu 800 Gb/s Durchsatz bietet. Das gesamte Ökosystem wird von NVIDIA Mission Control verwaltet, einer einheitlichen Betriebsplattform, die das komplexe Management von KI-Rechenzentren automatisiert.

Mit diesem strategischen Schritt festigt NVIDIA seine Position im Zentrum der KI-Entwicklung, indem das Unternehmen den Trend zu kundenspezifischem Silizium nicht bekämpft, sondern aktiv unterstützt. Durch die Öffnung der proprietären Interconnect-Technologie für Partner positioniert sich NVIDIA als das verbindende Gewebe der zukünftigen KI-Infrastruktur – selbst dann, wenn diese Systeme nicht vollständig aus NVIDIA-Chips bestehen.

Source: Cnbc

Latest News