menu
close

NVIDIA dezvăluie Blackwell Ultra pentru a domina piața de inferență AI

NVIDIA se pregătește să lanseze noile cipuri AI Blackwell Ultra în a doua jumătate a anului 2025, concepute special pentru a excela în inferența AI, acolo unde competitori precum Amazon, AMD și Broadcom câștigă teren. Noile cipuri promit o performanță de calcul AI de până la 1,5 ori mai mare decât actualele GPU-uri Blackwell și dispun de o capacitate de memorie semnificativ extinsă. Această mișcare strategică ar putea ajuta NVIDIA să-și mențină dominația pe piața de inferență AI, aflată într-o creștere accelerată și care se preconizează că va depăși ca dimensiune piața de training AI.
NVIDIA dezvăluie Blackwell Ultra pentru a domina piața de inferență AI

NVIDIA se pregătește să își consolideze poziția pe piața cipurilor AI prin lansarea viitoarei arhitecturi Blackwell Ultra, o actualizare semnificativă a platformei Blackwell anunțate la începutul acestui an.

Deși NVIDIA a dominat piața de training AI, compania se confruntă cu o concurență tot mai mare pe segmentul de inferență, acolo unde modelele AI sunt implementate pentru a genera răspunsuri, nu pentru a fi antrenate. Pe măsură ce aplicațiile AI devin tot mai complexe și răspândite, experții din industrie preconizează că piața de inferență va crește dramatic în următorii ani, atrăgând competitori dornici să conteste dominația NVIDIA. Spre deosebire de training, care necesită o putere de calcul uriașă la nivel de centre de date, sarcinile de inferență sunt mai diverse și pot fi gestionate de hardware specializat variat.

Produsele bazate pe Blackwell Ultra sunt așteptate să fie disponibile de la parteneri începând cu a doua jumătate a anului 2025. Principalii furnizori de cloud, inclusiv Amazon Web Services, Google Cloud, Microsoft Azure și Oracle Cloud Infrastructure, vor fi printre primii care vor oferi instanțe bazate pe Blackwell Ultra, iar producători de servere precum Dell, HPE, Lenovo și Supermicro vor urma cu propriile implementări.

Noua arhitectură folosește a doua generație a Transformer Engine de la NVIDIA, cu tehnologie personalizată Blackwell Tensor Core, combinată cu inovațiile TensorRT-LLM și NeMo Framework pentru a accelera atât inferența, cât și trainingul modelelor lingvistice de mari dimensiuni. Tensor Core-urile Blackwell Ultra oferă o accelerare de 2 ori mai mare a straturilor de atenție și 1,5 ori mai multe FLOPS de calcul AI comparativ cu GPU-urile Blackwell standard.

Potrivit NVIDIA, familia Blackwell Ultra oferă până la 15 petaFLOPS de performanță dense cu virgulă mobilă pe 4 biți și până la 288 GB de memorie HBM3e per cip. Acest aspect este deosebit de important pentru inferența AI, care este în principal o sarcină dependentă de memorie — cu cât este disponibilă mai multă memorie, cu atât poate fi deservit un model mai mare. Ian Buck, vicepreședinte NVIDIA pentru hyperscale și HPC, susține că Blackwell Ultra va permite servirea modelelor de raționament la un throughput de 10 ori mai mare față de generația anterioară Hopper, reducând timpii de răspuns de la peste un minut la doar zece secunde.

NVIDIA se confruntă cu o concurență tot mai puternică din partea AMD, care a lansat recent seria MI300 pentru sarcini AI și a câștigat teren în rândul companiilor care caută alternative pe fondul constrângerilor de aprovizionare NVIDIA. În 2025, AMD a anunțat achiziția de ingineri hardware și software AI de la Untether AI pentru a-și consolida capabilitățile de inferență. Amazon își demonstrează, de asemenea, ambițiile de a controla întregul stack de infrastructură AI cu cipurile Graviton4 și Trainium din Project Rainier, reușind să antreneze modele AI majore precum Claude 4 pe hardware non-NVIDIA.

În ciuda acestor provocări, analiștii estimează că vânzările NVIDIA pe segmentul data center vor ajunge la 200 de miliarde de dolari în 2025, menținând o cotă de piață de aproximativ 80-85% pe termen scurt. Strategia companiei cu Blackwell Ultra pare să fie axată pe consolidarea poziției pe piața de inferență, continuând totodată inovația în zona de training, ceea ce ar putea schimba percepția conform căreia cele mai performante modele AI trebuie să se bazeze exclusiv pe hardware NVIDIA.

Source: Technologyreview

Latest News