Mit einem bedeutenden Kurswechsel von seiner bislang eher geschlossenen Strategie hat Nvidia NVLink Fusion vorgestellt – eine neue Technologie, die die KI-Infrastruktur des Unternehmens für Prozessoren von Drittanbietern öffnet und Nvidia dennoch im Zentrum der KI-Entwicklung hält.
Angekündigt wurde NVLink Fusion von CEO Jensen Huang während seiner Keynote auf der Computex 2025 in Taipeh am 19. Mai. Die Technologie ermöglicht die Entwicklung von semi-kundenspezifischer KI-Infrastruktur, indem Kunden Nvidia-Prozessoren mit verschiedenen CPUs und anwendungsspezifischen integrierten Schaltungen (ASICs) kombinieren können.
„NVLink Fusion ist dafür gedacht, dass Sie semi-kundenspezifische KI-Infrastrukturen bauen können – nicht nur semi-kundenspezifische Chips“, erklärte Huang in seiner Präsentation. Die Technologie bietet Nutzern die Vorteile von Nvidias NVLink-Infrastruktur und -Ökosystem, unabhängig davon, mit welchen Prozessoren sie Nvidias GPUs kombinieren.
Nvidia hat bereits mehrere große Chiphersteller als Partner für NVLink Fusion gewonnen, darunter MediaTek, Marvell, Alchip, Astera Labs, Synopsys und Cadence. Darüber hinaus werden Unternehmen wie Fujitsu und Qualcomm Technologies in der Lage sein, ihre eigenen CPUs von Drittanbietern mit Nvidias GPUs in KI-Rechenzentren zu verbinden.
Analysten bewerten diesen Schritt als strategisch bedeutsam. Ray Wang, Halbleiter-Analyst, betonte: „NVLink Fusion festigt Nvidias Rolle als Zentrum der nächsten Generation von KI-Fabriken – selbst wenn diese Systeme nicht vollständig mit Nvidia-Chips gebaut werden.“ Zwar könnte das Programm die Nachfrage nach Nvidias eigenen CPUs potenziell verringern, doch die zusätzliche Flexibilität steigert die Wettbewerbsfähigkeit von Nvidia-basierten GPU-Lösungen gegenüber alternativen Architekturen.
Auffällig abwesend im NVLink-Fusion-Ökosystem sind Nvidias Hauptkonkurrenten – Broadcom, AMD und Intel –, die Mitglieder des konkurrierenden Ultra Accelerator Link (UALink)-Konsortiums sind, das einen offenen Industriestandard für Interconnects schaffen will.
Die Ankündigung erfolgt zu einem Zeitpunkt, an dem große Cloud-Anbieter wie Google, Microsoft und Amazon eigene Prozessoren entwickeln und damit Nvidias Dominanz potenziell bedrohen. Indem Nvidia Interoperabilität zulässt und gleichzeitig die Kontrolle über die kritische Verbindungstechnologie behält, will das Unternehmen seine Position als unverzichtbare Grundlage für KI-Deployments in einem zunehmend wettbewerbsintensiven Markt festigen.