Dans un revirement significatif par rapport à son approche historiquement fermée, Nvidia a dévoilé NVLink Fusion, une nouvelle technologie qui ouvre son infrastructure IA à des processeurs tiers tout en maintenant l’entreprise au cœur du développement de l’intelligence artificielle.
Annoncée par le PDG Jensen Huang lors de son discours d’ouverture au Computex 2025 à Taipei le 19 mai, NVLink Fusion permet la création d’infrastructures IA semi-personnalisées en autorisant les clients à combiner des processeurs Nvidia avec différents CPU et circuits intégrés spécifiques à une application (ASIC).
« NVLink Fusion permet de construire une infrastructure IA semi-personnalisée, et pas seulement des puces semi-personnalisées », a expliqué Huang durant sa présentation. La technologie offre aux utilisateurs les avantages de l’infrastructure et de l’écosystème NVLink de Nvidia, quel que soit le type de processeurs associés aux GPU Nvidia.
Nvidia a déjà conclu des partenariats majeurs pour NVLink Fusion, notamment avec MediaTek, Marvell, Alchip, Astera Labs, Synopsys et Cadence. Par ailleurs, des entreprises comme Fujitsu et Qualcomm Technologies pourront connecter leurs propres CPU tiers aux GPU Nvidia dans les centres de données IA.
Les analystes considèrent cette démarche comme stratégiquement importante. Ray Wang, analyste du secteur des semi-conducteurs, souligne que « NVLink Fusion consolide Nvidia comme le centre des usines IA de nouvelle génération, même lorsque ces systèmes ne sont pas entièrement construits avec des puces Nvidia ». Si ce programme pourrait potentiellement réduire la demande pour les propres CPU de Nvidia, la flexibilité supplémentaire renforce la compétitivité des solutions à base de GPU Nvidia face aux architectures alternatives.
On note l’absence remarquée des principaux concurrents de Nvidia — Broadcom, AMD et Intel — qui sont membres du consortium concurrent Ultra Accelerator Link (UALink), visant à créer une interconnexion industrielle ouverte et standardisée.
Cette annonce intervient alors que les grands fournisseurs de cloud comme Google, Microsoft et Amazon développent leurs propres processeurs personnalisés, menaçant potentiellement la domination de Nvidia. En adoptant l’interopérabilité tout en conservant la maîtrise de la technologie d’interconnexion essentielle, Nvidia entend s’imposer comme la base incontournable du déploiement de l’IA dans un paysage de plus en plus concurrentiel.