menu
close

Pinalawak ng AWS at NVIDIA ang Kooperasyon sa Next-Gen AI Infrastructure

Inanunsyo ng Amazon Web Services (AWS) at NVIDIA ang isang makabuluhang pagpapalawak ng kanilang estratehikong pakikipagtulungan upang maghatid ng makabagong AI infrastructure gamit ang bagong Blackwell platform ng NVIDIA. Mag-aalok ang AWS ng GB200 Grace Blackwell Superchip at B100 Tensor Core GPUs ng NVIDIA, na magbibigay-daan sa mga customer na bumuo at magpatakbo ng real-time inference sa multi-trillion parameter na malalaking language model. Pinagsasama ng kooperasyong ito ang advanced na networking at seguridad ng AWS sa makabagong GPU technology ng NVIDIA upang pabilisin ang inobasyon sa generative AI.
Pinalawak ng AWS at NVIDIA ang Kooperasyon sa Next-Gen AI Infrastructure

Pinalalalim ng Amazon Web Services at NVIDIA ang kanilang matagal nang estratehikong pakikipagtulungan upang isulong ang kakayahan ng generative AI sa pamamagitan ng mga bagong alok na infrastructure. Ang kooperasyon, na inanunsyo noong Hunyo 11, 2025, ay nakatuon sa pagdadala ng makapangyarihang Blackwell GPU platform ng NVIDIA sa mga cloud service ng AWS.

Isa ang AWS sa mga unang cloud provider na mag-aalok ng GB200 Grace Blackwell Superchip at B100 Tensor Core GPUs ng NVIDIA. Ang susunod na henerasyong hardware na ito ay partikular na idinisenyo upang tugunan ang napakalalaking computational na pangangailangan ng pinakabagong AI workloads sa kasalukuyan.

"Ang malalim na kooperasyon sa pagitan ng aming dalawang organisasyon ay nagsimula mahigit 13 taon na ang nakalilipas, nang maglunsad kami ng kauna-unahang GPU cloud instance sa AWS, at ngayon ay nag-aalok kami ng pinakamalawak na hanay ng NVIDIA GPU solutions para sa mga customer," pahayag ni Adam Selipsky, CEO ng AWS. Binanggit niya na ang Grace Blackwell processor ng NVIDIA ay "isang malaking hakbang pasulong sa generative AI at GPU computing."

Pinagsasama ng pakikipagtulungan ang hardware at AI software ng NVIDIA sa mga benepisyo ng infrastructure ng AWS, kabilang ang Nitro System para sa advanced na virtualization at seguridad, Elastic Fabric Adapter (EFA) para sa petabit-scale networking, at Amazon EC2 UltraCluster para sa hyper-scale clustering. Sa pamamagitan ng mga teknolohiyang ito, nagkakaroon ang mga customer ng kakayahang bumuo at magpatakbo ng multi-trillion parameter na malalaking language model nang mas mabilis at mas ligtas kaysa sa mga naunang solusyon.

Ang Blackwell architecture ng NVIDIA ay kumakatawan sa isang malaking pagtalon sa kakayahan ng AI computing. Tampok sa platform ang anim na makabagong teknolohiya para sa pabilisang computing, kabilang ang pinakamakapangyarihang chip sa mundo na may 208 bilyong transistors, na ginawa gamit ang custom-built na 4NP TSMC process. Kapag ginamit sa infrastructure ng AWS, ang GB200 NVL72 configuration ay nag-uugnay ng 72 Blackwell GPUs at 36 Grace CPUs sa pamamagitan ng ikalimang henerasyon ng NVLink technology ng NVIDIA.

Bagaman inaasahan ang unang paglabas ng mga Blackwell-powered system sa AWS sa pagtatapos ng 2024, naantala ito sa unang bahagi ng 2025 dahil sa mga hamon sa produksyon. Kumpirmado ni NVIDIA CEO Jensen Huang na matagumpay nang naitaas ng kumpanya ang "malakihang produksyon ng Blackwell AI supercomputers," na umabot sa bilyon-bilyong dolyar ang benta sa unang quarter ng pagkakaroon nito.

Dumarating ang pakikipagtulungang ito sa isang kritikal na panahon habang patuloy na tumataas ang demand para sa AI infrastructure sa iba't ibang industriya. Sa pagsasanib ng kani-kanilang lakas sa teknolohiya, layunin ng AWS at NVIDIA na mapanatili ang kanilang pamumuno sa mabilis na nagbabagong AI landscape habang binibigyan ang mga customer ng mga kasangkapan upang makabuo at makapag-deploy ng mga susunod na henerasyon ng AI applications.

Source:

Latest News