menu
close

NVIDIA презентує Blackwell Ultra для домінування на ринку AI-інференсу

NVIDIA планує випустити нове покоління AI-чипів Blackwell Ultra у другій половині 2025 року. Вони спеціально розроблені для високої продуктивності в AI-інференсі, де конкуренти, такі як Amazon, AMD і Broadcom, активно нарощують свої позиції. Нові чипи обіцяють до 1,5 разів вищу продуктивність у AI-обчисленнях порівняно з поточними GPU Blackwell і значно розширену пам’ять. Цей стратегічний крок може допомогти NVIDIA зберегти лідерство на швидкозростаючому ринку AI-інференсу, який, за прогнозами, з часом перевершить ринок навчання AI.
NVIDIA презентує Blackwell Ultra для домінування на ринку AI-інференсу

NVIDIA готується зміцнити свої позиції на ринку AI-чипів завдяки майбутньому релізу архітектури Blackwell Ultra — значному оновленню платформи Blackwell, анонсованої раніше цього року.

Хоча NVIDIA домінує на ринку навчання штучного інтелекту, компанія стикається з дедалі жорсткішою конкуренцією у сфері інференсу — там, де AI-моделі використовуються для генерації відповідей, а не для навчання. Зі зростанням складності та поширеності AI-додатків експерти прогнозують стрімке зростання ринку інференсу в найближчі роки, що приваблює конкурентів, які прагнуть кинути виклик домінуванню NVIDIA. На відміну від навчання AI, яке потребує колосальних обчислювальних ресурсів на рівні дата-центрів, інференс-навантаження є більш різноманітними і можуть виконуватись на спеціалізованому обладнанні різних типів.

Очікується, що продукти на базі Blackwell Ultra стануть доступними для партнерів у другій половині 2025 року. Провідні хмарні провайдери, зокрема Amazon Web Services, Google Cloud, Microsoft Azure та Oracle Cloud Infrastructure, першими запропонують інстанси на базі Blackwell Ultra, а виробники серверів Dell, HPE, Lenovo і Supermicro представлять власні рішення на цій архітектурі.

Нова архітектура використовує друге покоління Transformer Engine з фірмовою технологією Blackwell Tensor Core, а також інновації TensorRT-LLM і NeMo Framework для прискорення як інференсу, так і навчання великих мовних моделей. Ядра Blackwell Ultra Tensor забезпечують у 2 рази швидше опрацювання attention-шарів і на 1,5 рази більше AI-обчислювальної потужності (FLOPS) порівняно зі стандартними GPU Blackwell.

За даними NVIDIA, сімейство Blackwell Ultra забезпечує до 15 петаFLOPS щільної продуктивності у 4-бітових обчисленнях з плаваючою комою та до 288 ГБ пам’яті HBM3e на чип. Це особливо важливо для AI-інференсу, який переважно обмежується обсягом пам’яті: чим більше пам’яті, тим більші моделі можна обслуговувати. Ян Бак, віцепрезидент NVIDIA з напрямків hyperscale та HPC, стверджує, що Blackwell Ultra дозволить обслуговувати reasoning-моделі з у 10 разів вищою пропускною здатністю порівняно з попереднім поколінням Hopper, скорочуючи час відповіді з понад хвилини до десяти секунд.

NVIDIA стикається з посиленням конкуренції з боку AMD, яка нещодавно представила серію MI300 для AI-навантажень і вже здобула популярність серед компаній, що шукають альтернативи на фоні дефіциту рішень NVIDIA. У 2025 році AMD оголосила про придбання інженерів з апаратного та програмного забезпечення AI компанії Untether AI для посилення своїх можливостей в інференсі. Amazon також демонструє амбіції контролювати всю AI-інфраструктуру завдяки чипам Graviton4 і Trainium з проєкту Rainier, успішно навчаючи великі AI-моделі, такі як Claude 4, на обладнанні, відмінному від NVIDIA.

Попри ці виклики, аналітики прогнозують зростання продажів NVIDIA у сегменті дата-центрів до $200 млрд у 2025 році, що дозволить компанії зберігати частку ринку на рівні 80–85% у найближчій перспективі. Стратегія компанії щодо Blackwell Ultra спрямована на закріплення позицій на ринку інференсу, водночас продовжуючи інновації у сфері навчання AI, що потенційно може змінити уявлення про необхідність використання виключно апаратного забезпечення NVIDIA для топових AI-моделей.

Source: Technologyreview

Latest News