menu
close

NVIDIA Inilunsad ang Blackwell Ultra para Mangibabaw sa Merkado ng AI Inferencing

Inaasahang ilalabas ng NVIDIA ang susunod nitong henerasyon ng Blackwell Ultra AI chips sa ikalawang kalahati ng 2025, na partikular na dinisenyo upang manguna sa AI inferencing kung saan lumalakas ang kompetisyon mula kina Amazon, AMD, at Broadcom. Nangangako ang mga bagong chips ng hanggang 1.5 beses na mas mataas na AI compute performance kumpara sa kasalukuyang Blackwell GPUs at may mas malawak na kapasidad ng memorya. Ang estratehikong hakbang na ito ay maaaring makatulong sa NVIDIA na mapanatili ang pamamayani nito sa mabilis na lumalaking AI inference market, na inaasahang lalampas pa sa laki ng training market.
NVIDIA Inilunsad ang Blackwell Ultra para Mangibabaw sa Merkado ng AI Inferencing

Inihahanda ng NVIDIA ang pagpapalakas ng posisyon nito sa AI chip market sa nalalapit na paglabas ng Blackwell Ultra architecture, isang malaking pag-upgrade mula sa Blackwell platform na inanunsyo mas maaga ngayong taon.

Bagama't namamayani ang NVIDIA sa AI training market, humaharap ito ngayon sa tumitinding kompetisyon sa larangan ng inference, kung saan ginagamit ang AI models upang bumuo ng mga tugon sa halip na sanayin. Habang nagiging mas komplikado at laganap ang mga AI application, inaasahan ng mga eksperto sa industriya na lalago nang husto ang inference market sa mga susunod na taon, na umaakit sa mga kakompetensiya na nais hamunin ang pamamayani ng NVIDIA. Hindi tulad ng AI training na nangangailangan ng napakalaking computing power sa buong data centers, mas iba-iba ang inference workloads at maaaring hawakan ng iba't ibang specialized hardware.

Inaasahang magiging available ang mga produktong nakabatay sa Blackwell Ultra mula sa mga partner simula sa ikalawang kalahati ng 2025. Kabilang sa mga pangunahing cloud provider na unang mag-aalok ng Blackwell Ultra-powered instances ay ang Amazon Web Services, Google Cloud, Microsoft Azure, at Oracle Cloud Infrastructure, habang susunod naman ang mga server manufacturer gaya ng Dell, HPE, Lenovo, at Supermicro sa kanilang sariling implementasyon.

Gamit ang ikalawang henerasyon ng Transformer Engine ng NVIDIA na may custom Blackwell Tensor Core technology, pinagsama sa mga inobasyon ng TensorRT-LLM at NeMo Framework, pinapabilis ng bagong architecture ang parehong inference at training para sa malalaking language model. Ang Blackwell Ultra Tensor Cores ay nagbibigay ng 2X na bilis sa attention-layer acceleration at 1.5X na mas mataas na AI compute FLOPS kumpara sa karaniwang Blackwell GPUs.

Ayon sa NVIDIA, ang Blackwell Ultra family ay may hanggang 15 petaFLOPS ng dense 4-bit floating-point performance at hanggang 288 GB ng HBM3e memory bawat chip. Mahalaga ito para sa AI inference na pangunahing nakasalalay sa memorya—mas malaki ang memorya, mas malaki ang modelong kayang i-serve. Ayon kay Ian Buck, VP ng hyperscale at HPC ng NVIDIA, magpapahintulot ang Blackwell Ultra na ma-serve ang reasoning models nang 10x na mas mataas ang throughput kumpara sa nakaraang Hopper generation, na nagpapababa ng response times mula higit isang minuto tungo sa sampung segundo lamang.

Nahaharap ang NVIDIA sa lumalaking kompetisyon mula sa AMD, na kamakailan lamang ay naglunsad ng MI300 series para sa AI workloads at tinatangkilik ng mga kumpanyang naghahanap ng alternatibo dahil sa kakulangan ng supply mula sa NVIDIA. Noong 2025, inanunsyo ng AMD ang pagbili ng mga AI hardware at software engineer mula sa Untether AI upang palakasin ang kakayahan nito sa inference.

Ipinapakita rin ng Amazon ang ambisyon nitong kontrolin ang buong AI infrastructure stack gamit ang Graviton4 at Project Rainier's Trainium chips, na matagumpay na nagsanay ng malalaking AI model tulad ng Claude 4 sa hardware na hindi NVIDIA.

Sa kabila ng mga hamong ito, tinatayang aabot sa $200 bilyon ang benta ng NVIDIA sa data center sa 2025, na nagpapanatili ng humigit-kumulang 80-85% na bahagi ng merkado sa malapit na hinaharap. Ang estratehiya ng kumpanya sa Blackwell Ultra ay tila nakatuon sa pag-secure ng posisyon nito sa inference market habang patuloy na nag-iinobasyon sa training capabilities, na posibleng magbago sa paniniwala na ang pinakamahusay na AI models ay dapat umasa lamang sa NVIDIA hardware.

Source: Technologyreview

Latest News