menu
close

Binuksan ng NVIDIA ang Teknolohiyang NVLink upang Baguhin ang Imprastraktura ng AI

Inilunsad ng NVIDIA ang NVLink Fusion noong Mayo 19, 2025 sa Computex sa Taiwan, na nagpapahintulot sa mga partner na isama ang mga non-NVIDIA CPU at GPU gamit ang high-speed interconnect technology ng NVIDIA. Ang estratehikong hakbang na ito ay nagbibigay-daan sa mga kumpanya tulad ng MediaTek, Marvell, at Qualcomm na bumuo ng semi-custom na AI infrastructure, hindi lamang semi-custom na chips. Nagbibigay ang teknolohiya ng 1.8 TB/s na bidirectional bandwidth bawat GPU—14 na beses na mas mabilis kaysa PCIe Gen5—na inilalagay ang NVIDIA sa sentro ng susunod na henerasyon ng mga AI factory kahit na hindi puro NVIDIA chips ang ginagamit sa mga sistema.
Binuksan ng NVIDIA ang Teknolohiyang NVLink upang Baguhin ang Imprastraktura ng AI

Isang malaking estratehikong pagbabago ang ginawa ng NVIDIA sa kanilang paglapit sa AI infrastructure sa pamamagitan ng paglulunsad ng NVLink Fusion, isang bagong silicon technology na nagbubukas ng kanilang proprietary high-speed interconnect para sa mga third-party hardware manufacturer.

Inanunsyo ni CEO Jensen Huang sa Computex 2025 sa Taipei ang NVLink Fusion, na nagpapahintulot sa mga customer at partner na gamitin ang mga non-NVIDIA CPU at GPU kasabay ng mga produkto ng NVIDIA. "Ang NVLink Fusion ay para makabuo kayo ng semi-custom na AI infrastructure, hindi lang semi-custom na chips," paliwanag ni Huang sa kanyang keynote presentation.

Agad na nakakuha ang teknolohiya ng mga kilalang unang gumagamit. Kabilang sa mga unang partner na mag-iintegrate ng NVLink Fusion sa kanilang custom silicon designs ay ang MediaTek, Marvell, Alchip Technologies, Astera Labs, Synopsys, at Cadence. Bukod dito, plano ng Fujitsu at Qualcomm Technologies na bumuo ng custom na CPU na maaaring ipares sa NVIDIA GPU upang makalikha ng high-performance na mga AI factory.

Ang NVLink Fusion ay kumakatawan sa isang teknikal na tagumpay sa pag-develop ng AI infrastructure. Ang ikalimang henerasyon ng NVLink platform ay nagbibigay ng 1.8 TB/s na bidirectional bandwidth bawat GPU—14 na beses na mas mabilis kaysa PCIe Gen5—na nagpapahintulot ng seamless na high-speed communication para sa mga komplikadong malalaking modelo. Napakahalaga ng performance boost na ito para sa mga AI workload, dahil bawat 2x na pagtaas ng NVLink bandwidth ay maaaring magdulot ng 1.3-1.4x na pagbuti sa rack-level na AI performance.

Para sa mga cloud provider, nag-aalok ang NVLink Fusion ng paraan upang mapalawak ang AI factories hanggang sa milyon-milyong GPU gamit ang anumang ASIC, mga rack-scale system ng NVIDIA, at end-to-end networking platform ng NVIDIA na nagbibigay ng hanggang 800Gb/s na throughput. Ang buong ecosystem ay pinamamahalaan ng NVIDIA Mission Control, isang unified operations platform na nag-a-automate ng komplikadong pamamahala ng AI data centers.

Pinagtitibay ng estratehikong hakbang na ito ang posisyon ng NVIDIA sa sentro ng pag-unlad ng AI sa pamamagitan ng pagtanggap, sa halip na paglaban, sa trend ng custom silicon. Sa pagbubukas ng kanilang proprietary interconnect technology sa mga partner, inilalagay ng NVIDIA ang sarili bilang mahalagang hibla na mag-uugnay sa AI infrastructure ng hinaharap—kahit na hindi puro NVIDIA chips ang bumubuo sa mga sistemang ito.

Source: Cnbc

Latest News