NVIDIA готовит укрепление своих позиций на рынке AI-чипов с выходом архитектуры Blackwell Ultra — значительного обновления платформы Blackwell, анонсированной ранее в этом году.
Хотя NVIDIA доминирует на рынке обучения нейросетей, компания сталкивается с растущей конкуренцией в сегменте инференса — там, где AI-модели применяются для генерации ответов, а не обучения. По мере усложнения и распространения AI-приложений эксперты прогнозируют взрывной рост рынка инференса в ближайшие годы, что привлекает новых игроков, стремящихся оспорить лидерство NVIDIA. В отличие от обучения, требующего огромных вычислительных ресурсов дата-центров, задачи инференса более разнообразны и могут выполняться на специализированном оборудовании разных производителей.
Ожидается, что продукты на базе Blackwell Ultra станут доступны у партнёров во второй половине 2025 года. Крупнейшие облачные провайдеры, включая Amazon Web Services, Google Cloud, Microsoft Azure и Oracle Cloud Infrastructure, будут одними из первых, кто предложит инстансы на базе Blackwell Ultra, а серверные производители Dell, HPE, Lenovo и Supermicro вскоре выпустят собственные решения.
Новая архитектура использует второе поколение Transformer Engine с фирменной технологией Blackwell Tensor Core, а также инновации TensorRT-LLM и NeMo Framework для ускорения как инференса, так и обучения больших языковых моделей. Ядра Blackwell Ultra Tensor Core обеспечивают в 2 раза более быстрое ускорение attention-слоя и на 50% больше AI-вычислений (FLOPS) по сравнению со стандартными GPU Blackwell.
По данным NVIDIA, семейство Blackwell Ultra обеспечивает до 15 петаFLOPS плотных вычислений с 4-битной плавающей точкой и до 288 ГБ памяти HBM3e на один чип. Это особенно важно для инференса, который в первую очередь ограничен объёмом памяти: чем больше памяти, тем более крупные модели можно обслуживать. Ян Бак, вице-президент NVIDIA по гипермасштабируемым и HPC-решениям, утверждает, что Blackwell Ultra позволит обслуживать reasoning-модели с производительностью в 10 раз выше по сравнению с предыдущим поколением Hopper, сокращая время отклика с более чем минуты до десяти секунд.
NVIDIA сталкивается с растущей конкуренцией со стороны AMD, которая недавно представила серию MI300 для AI-задач и уже получила признание среди компаний, ищущих альтернативу на фоне дефицита продукции NVIDIA. В 2025 году AMD объявила о приобретении команды инженеров по AI-оборудованию и ПО из Untether AI для усиления своих возможностей в инференсе. Amazon также демонстрирует амбиции контролировать всю инфраструктуру AI с помощью чипов Graviton4 и Trainium из проекта Rainier, успешно обучая крупные AI-модели, такие как Claude 4, на оборудовании, не относящемся к NVIDIA.
Несмотря на эти вызовы, аналитики прогнозируют рост продаж дата-центров NVIDIA до 200 миллиардов долларов в 2025 году при сохранении доли рынка на уровне 80–85% в ближайшей перспективе. Стратегия компании с Blackwell Ultra направлена на закрепление позиций в сегменте инференса при одновременном развитии технологий обучения, что потенциально может изменить представление о необходимости использования исключительно оборудования NVIDIA для топовых AI-моделей.