menu
close

NVIDIA svela Blackwell Ultra per dominare il mercato dell'inferenza AI

NVIDIA si prepara a lanciare i suoi chip AI di nuova generazione Blackwell Ultra nella seconda metà del 2025, progettati specificamente per eccellere nell'inferenza AI, dove concorrenti come Amazon, AMD e Broadcom stanno guadagnando terreno. I nuovi chip promettono fino a 1,5 volte le prestazioni di calcolo AI rispetto alle attuali GPU Blackwell e una capacità di memoria significativamente ampliata. Questa mossa strategica potrebbe aiutare NVIDIA a mantenere la sua leadership nel mercato dell'inferenza AI, in rapida crescita e destinato a superare per dimensioni quello dell'addestramento.
NVIDIA svela Blackwell Ultra per dominare il mercato dell'inferenza AI

NVIDIA si prepara a rafforzare la sua posizione nel mercato dei chip AI con il prossimo rilascio dell’architettura Blackwell Ultra, un aggiornamento significativo della piattaforma Blackwell annunciata all’inizio di quest’anno.

Sebbene NVIDIA abbia dominato il mercato dell’addestramento AI, l’azienda si trova ad affrontare una crescente concorrenza nell’ambito dell’inferenza, dove i modelli AI vengono utilizzati per generare risposte anziché essere addestrati. Con l’aumentare della complessità e della diffusione delle applicazioni AI, gli esperti del settore prevedono che il mercato dell’inferenza crescerà in modo esponenziale nei prossimi anni, attirando concorrenti desiderosi di sfidare la supremazia di NVIDIA. A differenza dell’addestramento AI, che richiede enormi risorse di calcolo su interi data center, i carichi di lavoro di inferenza sono più diversificati e possono essere gestiti da diversi hardware specializzati.

I prodotti basati su Blackwell Ultra dovrebbero essere disponibili dai partner a partire dalla seconda metà del 2025. I principali fornitori di servizi cloud, tra cui Amazon Web Services, Google Cloud, Microsoft Azure e Oracle Cloud Infrastructure, saranno tra i primi a offrire istanze alimentate da Blackwell Ultra, seguiti da produttori di server come Dell, HPE, Lenovo e Supermicro con le proprie implementazioni.

La nuova architettura sfrutta la seconda generazione del Transformer Engine di NVIDIA con la tecnologia proprietaria Blackwell Tensor Core, combinata con le innovazioni TensorRT-LLM e NeMo Framework per accelerare sia l’inferenza che l’addestramento dei grandi modelli linguistici. I Blackwell Ultra Tensor Core offrono un’accelerazione 2 volte superiore nei layer di attenzione e 1,5 volte più FLOPS di calcolo AI rispetto alle GPU Blackwell standard.

Secondo NVIDIA, la famiglia Blackwell Ultra vanta fino a 15 petaFLOPS di prestazioni dense in floating-point a 4 bit e fino a 288 GB di memoria HBM3e per chip. Questo è particolarmente rilevante per l’inferenza AI, che è principalmente un carico di lavoro limitato dalla memoria: più memoria è disponibile, più grande è il modello che può essere servito. Ian Buck, vicepresidente di NVIDIA per hyperscale e HPC, afferma che Blackwell Ultra consentirà di servire modelli di ragionamento con una velocità 10 volte superiore rispetto alla precedente generazione Hopper, riducendo i tempi di risposta da oltre un minuto a soli dieci secondi.

NVIDIA deve affrontare una concorrenza crescente da parte di AMD, che ha recentemente lanciato la serie MI300 per i carichi di lavoro AI e ha guadagnato terreno tra le aziende alla ricerca di alternative a causa delle limitazioni di fornitura di NVIDIA. Nel 2025, AMD ha annunciato l’acquisizione di ingegneri hardware e software AI da Untether AI per rafforzare le proprie capacità di inferenza. Anche Amazon sta dimostrando ambizioni di controllo sull’intero stack infrastrutturale AI con i suoi chip Graviton4 e Trainium di Project Rainier, riuscendo ad addestrare importanti modelli AI come Claude 4 su hardware non NVIDIA.

Nonostante queste sfide, gli analisti prevedono che le vendite data center di NVIDIA cresceranno fino a 200 miliardi di dollari nel 2025, mantenendo una quota di mercato di circa l’80-85% nel breve termine. La strategia dell’azienda con Blackwell Ultra sembra puntare a consolidare la propria posizione nel mercato dell’inferenza, continuando a innovare anche nell’addestramento, e potenzialmente cambiando la convinzione che i migliori modelli AI debbano necessariamente affidarsi esclusivamente all’hardware NVIDIA.

Source: Technologyreview

Latest News