menu
close

NVIDIA Perkenalkan Blackwell Ultra untuk Dominasi Pasar Inferensi AI

NVIDIA akan merilis chip AI generasi terbaru Blackwell Ultra pada paruh kedua 2025, yang dirancang khusus untuk unggul dalam inferensi AI di tengah persaingan dari Amazon, AMD, dan Broadcom. Chip baru ini menjanjikan performa komputasi AI hingga 1,5 kali lipat dari GPU Blackwell saat ini serta kapasitas memori yang jauh lebih besar. Langkah strategis ini dapat membantu NVIDIA mempertahankan dominasinya di pasar inferensi AI yang berkembang pesat, yang diperkirakan akan melampaui pasar pelatihan AI dalam hal ukuran.
NVIDIA Perkenalkan Blackwell Ultra untuk Dominasi Pasar Inferensi AI

NVIDIA tengah bersiap memperkuat posisinya di pasar chip AI melalui peluncuran arsitektur Blackwell Ultra yang akan datang, sebuah peningkatan signifikan dari platform Blackwell yang diumumkan awal tahun ini.

Meskipun NVIDIA telah mendominasi pasar pelatihan AI, perusahaan kini menghadapi persaingan yang semakin ketat di ranah inferensi, di mana model AI digunakan untuk menghasilkan respons alih-alih dilatih. Seiring semakin kompleks dan meluasnya aplikasi AI, para ahli industri memprediksi pasar inferensi akan tumbuh secara dramatis dalam beberapa tahun ke depan, menarik banyak pesaing yang ingin menantang dominasi NVIDIA. Berbeda dengan pelatihan AI yang membutuhkan daya komputasi besar di seluruh pusat data, beban kerja inferensi lebih beragam dan dapat ditangani oleh berbagai perangkat keras khusus.

Produk berbasis Blackwell Ultra diperkirakan akan tersedia dari mitra-mitra NVIDIA mulai paruh kedua 2025. Penyedia cloud utama seperti Amazon Web Services, Google Cloud, Microsoft Azure, dan Oracle Cloud Infrastructure akan menjadi yang pertama menawarkan instans berbasis Blackwell Ultra, diikuti oleh produsen server seperti Dell, HPE, Lenovo, dan Supermicro dengan implementasi mereka sendiri.

Arsitektur baru ini memanfaatkan Transformer Engine generasi kedua dari NVIDIA dengan teknologi Blackwell Tensor Core khusus, dikombinasikan dengan inovasi TensorRT-LLM dan NeMo Framework untuk mempercepat inferensi maupun pelatihan model bahasa besar. Blackwell Ultra Tensor Core memberikan akselerasi lapisan perhatian (attention-layer) 2X lebih cepat dan performa komputasi AI (FLOPS) 1,5X lebih tinggi dibandingkan GPU Blackwell standar.

Menurut NVIDIA, keluarga Blackwell Ultra menawarkan performa floating-point 4-bit padat hingga 15 petaFLOPS dan kapasitas memori HBM3e hingga 288 GB per chip. Hal ini sangat penting untuk inferensi AI, yang pada dasarnya sangat bergantung pada memori—semakin besar memori, semakin besar model yang dapat dijalankan. Ian Buck, VP hyperscale dan HPC NVIDIA, mengklaim Blackwell Ultra memungkinkan model reasoning dilayani dengan throughput 10x lipat dari generasi Hopper sebelumnya, memangkas waktu respons dari lebih dari satu menit menjadi hanya sepuluh detik.

NVIDIA menghadapi persaingan yang semakin kuat dari AMD, yang baru-baru ini meluncurkan seri MI300 untuk beban kerja AI dan mulai diadopsi perusahaan-perusahaan yang mencari alternatif di tengah keterbatasan pasokan NVIDIA. Pada 2025, AMD mengumumkan akuisisi insinyur perangkat keras dan perangkat lunak AI dari Untether AI untuk memperkuat kemampuan inferensinya. Amazon juga menunjukkan ambisi mengendalikan seluruh tumpukan infrastruktur AI dengan chip Graviton4 dan Trainium dari Project Rainier, yang berhasil melatih model AI besar seperti Claude 4 di perangkat keras non-NVIDIA.

Meski menghadapi tantangan tersebut, para analis memperkirakan penjualan pusat data NVIDIA akan tumbuh hingga US$200 miliar pada 2025, dengan pangsa pasar sekitar 80-85% dalam waktu dekat. Strategi perusahaan dengan Blackwell Ultra tampaknya berfokus pada pengamanan posisi di pasar inferensi sembari terus berinovasi dalam kemampuan pelatihan, yang berpotensi mengubah anggapan bahwa model AI teratas harus sepenuhnya bergantung pada perangkat keras NVIDIA.

Source: Technologyreview

Latest News