A NVIDIA está a reposicionar-se estrategicamente no panorama global da inteligência artificial, passando de fornecedora de hardware para se tornar a espinha dorsal do desenvolvimento mundial de infraestruturas de IA.
Na Computex 2025, em Taipé, o CEO Jensen Huang revelou o NVLink Fusion, uma tecnologia inovadora que abre o anteriormente fechado ecossistema da NVIDIA aos chips da concorrência. Isto permite que fornecedores de cloud e empresas integrem CPUs personalizadas e aceleradores de IA de outras empresas com as GPUs da NVIDIA, mantendo a tecnologia de interligação da NVIDIA como base crítica da infraestrutura.
"Está em curso uma mudança tectónica: pela primeira vez em décadas, os centros de dados têm de ser fundamentalmente reestruturados — a IA está a ser fundida em todas as plataformas de computação", afirmou Huang durante o seu discurso de abertura. Referiu-se repetidamente aos centros de dados modernos como "fábricas de IA" e não como instalações informáticas tradicionais, sublinhando o seu papel na produção de resultados valiosos de IA.
A empresa já garantiu parcerias com a MediaTek, Marvell, Alchip, Astera Labs, Synopsys e Cadence para desenvolver chips de IA personalizados compatíveis com os sistemas NVIDIA. Além disso, a Fujitsu e a Qualcomm irão criar processadores concebidos para funcionar com aceleradores NVIDIA, validando a nova abordagem da empresa.
Esta mudança estratégica parece calculada para impedir que grandes fornecedores de cloud como a Microsoft e a Amazon contornem totalmente a NVIDIA ao desenvolverem os seus próprios processadores personalizados. Ao adotar um ecossistema mais aberto, mas mantendo o controlo arquitetónico através de tecnologias como o NVLink Fusion, a NVIDIA pretende continuar no centro do desenvolvimento global de IA.
Para além do NVLink Fusion, a NVIDIA anunciou várias outras iniciativas de infraestrutura, incluindo os sistemas de próxima geração GB300, com lançamento previsto para o terceiro trimestre de 2025, um novo sistema RTX Pro Server e uma expansão da plataforma DGX Cloud Lepton, que liga programadores a recursos de GPU em todo o mundo. A empresa revelou ainda uma parceria com a Foxconn de Taiwan para construir um supercomputador de IA, reforçando ainda mais a sua estratégia internacional de infraestruturas.