menu
close

NVIDIA Perkenal Blackwell Ultra untuk Mendominasi Pasaran Inferensi AI

NVIDIA bakal melancarkan cip AI generasi baharu Blackwell Ultra pada separuh kedua tahun 2025, khusus direka untuk cemerlang dalam inferensi AI di mana pesaing seperti Amazon, AMD, dan Broadcom semakin mengukuhkan kedudukan. Cip baharu ini menjanjikan sehingga 1.5 kali prestasi pengkomputeran AI berbanding GPU Blackwell sedia ada serta kapasiti memori yang jauh lebih besar. Langkah strategik ini dijangka membantu NVIDIA mengekalkan dominasinya dalam pasaran inferensi AI yang berkembang pesat, yang dijangka akan mengatasi saiz pasaran latihan AI pada masa akan datang.
NVIDIA Perkenal Blackwell Ultra untuk Mendominasi Pasaran Inferensi AI

NVIDIA sedang bersiap sedia untuk memperkukuh kedudukannya dalam pasaran cip AI menerusi pelancaran seni bina Blackwell Ultra yang bakal hadir, satu peningkatan ketara kepada platform Blackwell yang diumumkan awal tahun ini.

Walaupun NVIDIA telah mendominasi pasaran latihan AI, syarikat ini kini berdepan persaingan yang semakin sengit dalam ruang inferensi, di mana model AI digunakan untuk menjana respons dan bukannya dilatih. Seiring aplikasi AI menjadi semakin kompleks dan meluas, pakar industri meramalkan pasaran inferensi akan berkembang pesat dalam beberapa tahun akan datang, menarik minat pesaing yang ingin mencabar dominasi NVIDIA. Tidak seperti latihan AI yang memerlukan kuasa pengkomputeran besar di seluruh pusat data, beban kerja inferensi adalah lebih pelbagai dan boleh dikendalikan oleh pelbagai perkakasan khusus.

Produk berasaskan Blackwell Ultra dijangka tersedia daripada rakan kongsi bermula separuh kedua 2025. Penyedia awan utama seperti Amazon Web Services, Google Cloud, Microsoft Azure, dan Oracle Cloud Infrastructure akan menjadi antara yang terawal menawarkan instans berkuasa Blackwell Ultra, diikuti pengeluar pelayan seperti Dell, HPE, Lenovo, dan Supermicro dengan pelaksanaan mereka sendiri.

Seni bina baharu ini memanfaatkan Enjin Transformer generasi kedua NVIDIA dengan teknologi Blackwell Tensor Core tersuai, digabungkan dengan inovasi TensorRT-LLM dan NeMo Framework untuk mempercepatkan inferensi dan latihan model bahasa besar. Blackwell Ultra Tensor Cores menawarkan pecutan lapisan perhatian 2X dan 1.5X lebih banyak FLOPS pengkomputeran AI berbanding GPU Blackwell standard.

Menurut NVIDIA, keluarga Blackwell Ultra menawarkan sehingga 15 petaFLOPS prestasi titik terapung 4-bit padat dan sehingga 288 GB memori HBM3e setiap cip. Ini sangat penting untuk inferensi AI, yang kebanyakannya bergantung kepada memori—lebih banyak memori, lebih besar model yang boleh disajikan. Ian Buck, Naib Presiden NVIDIA bagi hiperskala dan HPC, mendakwa Blackwell Ultra membolehkan model penaakulan disajikan pada 10x kadar throughput generasi Hopper sebelumnya, mengurangkan masa respons daripada lebih seminit kepada hanya sepuluh saat.

NVIDIA kini berdepan persaingan sengit daripada AMD, yang baru-baru ini melancarkan siri MI300 untuk beban kerja AI dan telah diterima pakai oleh syarikat yang mencari alternatif di tengah kekangan bekalan NVIDIA. Pada 2025, AMD mengumumkan pengambilalihan jurutera perkakasan dan perisian AI dari Untether AI untuk memperkukuh keupayaan inferensinya. Amazon juga menunjukkan aspirasi untuk mengawal keseluruhan lapisan infrastruktur AI dengan cip Graviton4 dan Trainium dari Project Rainier, berjaya melatih model AI utama seperti Claude 4 di atas perkakasan bukan NVIDIA.

Walaupun berdepan cabaran ini, penganalisis menjangkakan jualan pusat data NVIDIA akan meningkat kepada $200 bilion pada 2025, mengekalkan pegangan pasaran sekitar 80-85% dalam masa terdekat. Strategi syarikat dengan Blackwell Ultra dilihat tertumpu untuk mengukuhkan kedudukan dalam pasaran inferensi sambil terus berinovasi dalam keupayaan latihan, sekali gus berpotensi mengubah tanggapan bahawa model AI terbaik mesti bergantung sepenuhnya kepada perkakasan NVIDIA.

Source: Technologyreview

Latest News