menu
close

NVIDIA prezentuje Blackwell Ultra, by zdominować rynek inferencji AI

NVIDIA planuje wprowadzić na rynek swoje najnowsze układy Blackwell Ultra w drugiej połowie 2025 roku. Nowe chipy zostały zaprojektowane z myślą o wydajności w zadaniach inferencji AI, gdzie konkurenci tacy jak Amazon, AMD i Broadcom coraz śmielej zdobywają udziały. Blackwell Ultra ma oferować nawet 1,5-krotnie większą wydajność obliczeniową AI niż obecne GPU Blackwell oraz znacznie większą pojemność pamięci. Ten strategiczny krok może pozwolić NVIDIA utrzymać dominację na szybko rosnącym rynku inferencji AI, który w przyszłości ma przewyższyć rynek treningu modeli AI pod względem wielkości.
NVIDIA prezentuje Blackwell Ultra, by zdominować rynek inferencji AI

NVIDIA przygotowuje się do umocnienia swojej pozycji na rynku układów AI dzięki nadchodzącej architekturze Blackwell Ultra, będącej znaczącym ulepszeniem platformy Blackwell ogłoszonej na początku tego roku.

Choć NVIDIA dominuje na rynku treningu AI, firma mierzy się z rosnącą konkurencją w obszarze inferencji, czyli wdrażania modeli AI do generowania odpowiedzi, a nie ich trenowania. Wraz ze wzrostem złożoności i powszechności zastosowań AI, eksperci branżowi przewidują, że rynek inferencji będzie dynamicznie rósł w najbliższych latach, przyciągając kolejnych graczy chcących podważyć dominację NVIDIA. W przeciwieństwie do treningu AI, który wymaga ogromnej mocy obliczeniowej całych centrów danych, zadania inferencyjne są bardziej zróżnicowane i mogą być obsługiwane przez różnorodny, wyspecjalizowany sprzęt.

Produkty oparte na Blackwell Ultra mają być dostępne u partnerów od drugiej połowy 2025 roku. Najwięksi dostawcy chmury, tacy jak Amazon Web Services, Google Cloud, Microsoft Azure oraz Oracle Cloud Infrastructure, będą jednymi z pierwszych oferujących instancje napędzane Blackwell Ultra, a producenci serwerów tacy jak Dell, HPE, Lenovo i Supermicro wprowadzą własne rozwiązania oparte na tej architekturze.

Nowa architektura wykorzystuje drugą generację silnika Transformer firmy NVIDIA z autorską technologią Blackwell Tensor Core, a także innowacje TensorRT-LLM i NeMo Framework, co przyspiesza zarówno inferencję, jak i trening dużych modeli językowych. Rdzenie Tensor Blackwell Ultra zapewniają 2-krotnie szybszą akcelerację warstw attention i 1,5-krotnie większą moc obliczeniową AI (FLOPS) w porównaniu do standardowych GPU Blackwell.

Według NVIDIA, rodzina Blackwell Ultra oferuje do 15 petaFLOPS wydajności w precyzji 4-bitowej (dense floating-point) oraz do 288 GB pamięci HBM3e na chip. Ma to szczególne znaczenie dla inferencji AI, która jest głównie ograniczona przez pamięć — im większa dostępna pamięć, tym większy model można obsłużyć. Ian Buck, wiceprezes NVIDIA ds. hyperscale i HPC, twierdzi, że Blackwell Ultra pozwoli obsługiwać modele reasoningowe z 10-krotnie większą przepustowością niż poprzednia generacja Hopper, skracając czas odpowiedzi z ponad minuty do zaledwie dziesięciu sekund.

NVIDIA mierzy się z rosnącą konkurencją ze strony AMD, które niedawno wprowadziło serię MI300 do zadań AI i zdobywa klientów szukających alternatywy w obliczu ograniczonej dostępności układów NVIDIA. W 2025 roku AMD ogłosiło przejęcie zespołu inżynierów sprzętu i oprogramowania AI z Untether AI, by wzmocnić swoje możliwości w zakresie inferencji. Amazon również wykazuje ambicje do kontroli całego stosu infrastruktury AI dzięki chipom Graviton4 oraz Trainium w ramach Project Rainier, z sukcesem trenując duże modele AI, takie jak Claude 4, na sprzęcie innym niż NVIDIA.

Pomimo tych wyzwań, analitycy prognozują, że sprzedaż NVIDIA w segmencie centrów danych wzrośnie do 200 miliardów dolarów w 2025 roku, co pozwoli firmie utrzymać około 80–85% udziału w rynku w najbliższym czasie. Strategia firmy związana z Blackwell Ultra wydaje się skupiać na zabezpieczeniu pozycji w segmencie inferencji przy jednoczesnym dalszym rozwoju rozwiązań do treningu, co może zmienić dotychczasowe przekonanie, że najlepsze modele AI muszą być uruchamiane wyłącznie na sprzęcie NVIDIA.

Source: Technologyreview

Latest News