NVIDIA готується зміцнити свої позиції на ринку AI-чипів завдяки майбутньому релізу архітектури Blackwell Ultra — значному оновленню платформи Blackwell, анонсованої раніше цього року.
Хоча NVIDIA домінує на ринку навчання штучного інтелекту, компанія стикається з дедалі жорсткішою конкуренцією у сфері інференсу — там, де AI-моделі використовуються для генерації відповідей, а не для навчання. Зі зростанням складності та поширеності AI-додатків експерти прогнозують стрімке зростання ринку інференсу в найближчі роки, що приваблює конкурентів, які прагнуть кинути виклик домінуванню NVIDIA. На відміну від навчання AI, яке потребує колосальних обчислювальних ресурсів на рівні дата-центрів, інференс-навантаження є більш різноманітними і можуть виконуватись на спеціалізованому обладнанні різних типів.
Очікується, що продукти на базі Blackwell Ultra стануть доступними для партнерів у другій половині 2025 року. Провідні хмарні провайдери, зокрема Amazon Web Services, Google Cloud, Microsoft Azure та Oracle Cloud Infrastructure, першими запропонують інстанси на базі Blackwell Ultra, а виробники серверів Dell, HPE, Lenovo і Supermicro представлять власні рішення на цій архітектурі.
Нова архітектура використовує друге покоління Transformer Engine з фірмовою технологією Blackwell Tensor Core, а також інновації TensorRT-LLM і NeMo Framework для прискорення як інференсу, так і навчання великих мовних моделей. Ядра Blackwell Ultra Tensor забезпечують у 2 рази швидше опрацювання attention-шарів і на 1,5 рази більше AI-обчислювальної потужності (FLOPS) порівняно зі стандартними GPU Blackwell.
За даними NVIDIA, сімейство Blackwell Ultra забезпечує до 15 петаFLOPS щільної продуктивності у 4-бітових обчисленнях з плаваючою комою та до 288 ГБ пам’яті HBM3e на чип. Це особливо важливо для AI-інференсу, який переважно обмежується обсягом пам’яті: чим більше пам’яті, тим більші моделі можна обслуговувати. Ян Бак, віцепрезидент NVIDIA з напрямків hyperscale та HPC, стверджує, що Blackwell Ultra дозволить обслуговувати reasoning-моделі з у 10 разів вищою пропускною здатністю порівняно з попереднім поколінням Hopper, скорочуючи час відповіді з понад хвилини до десяти секунд.
NVIDIA стикається з посиленням конкуренції з боку AMD, яка нещодавно представила серію MI300 для AI-навантажень і вже здобула популярність серед компаній, що шукають альтернативи на фоні дефіциту рішень NVIDIA. У 2025 році AMD оголосила про придбання інженерів з апаратного та програмного забезпечення AI компанії Untether AI для посилення своїх можливостей в інференсі. Amazon також демонструє амбіції контролювати всю AI-інфраструктуру завдяки чипам Graviton4 і Trainium з проєкту Rainier, успішно навчаючи великі AI-моделі, такі як Claude 4, на обладнанні, відмінному від NVIDIA.
Попри ці виклики, аналітики прогнозують зростання продажів NVIDIA у сегменті дата-центрів до $200 млрд у 2025 році, що дозволить компанії зберігати частку ринку на рівні 80–85% у найближчій перспективі. Стратегія компанії щодо Blackwell Ultra спрямована на закріплення позицій на ринку інференсу, водночас продовжуючи інновації у сфері навчання AI, що потенційно може змінити уявлення про необхідність використання виключно апаратного забезпечення NVIDIA для топових AI-моделей.