menu
close

NVIDIA presenta Blackwell Ultra para dominar el mercado de inferencia de IA

NVIDIA planea lanzar sus chips de IA Blackwell Ultra de próxima generación en la segunda mitad de 2025, diseñados específicamente para sobresalir en la inferencia de IA, donde competidores como Amazon, AMD y Broadcom están ganando terreno. Los nuevos chips prometen hasta 1.5 veces más rendimiento de cómputo en IA que las GPU Blackwell actuales y cuentan con una capacidad de memoria significativamente ampliada. Esta jugada estratégica podría ayudar a NVIDIA a mantener su dominio en el mercado de inferencia de IA, que se espera supere en tamaño al mercado de entrenamiento.
NVIDIA presenta Blackwell Ultra para dominar el mercado de inferencia de IA

NVIDIA se prepara para reforzar su posición en el mercado de chips de IA con el próximo lanzamiento de su arquitectura Blackwell Ultra, una actualización significativa de la plataforma Blackwell anunciada a principios de este año.

Aunque NVIDIA ha dominado el mercado de entrenamiento de IA, la compañía enfrenta una competencia creciente en el ámbito de la inferencia, donde los modelos de IA se despliegan para generar respuestas en lugar de ser entrenados. A medida que las aplicaciones de IA se vuelven más complejas y generalizadas, expertos de la industria predicen que el mercado de inferencia crecerá drásticamente en los próximos años, atrayendo a competidores ansiosos por desafiar el dominio de NVIDIA. A diferencia del entrenamiento de IA, que requiere un enorme poder de cómputo en centros de datos completos, las cargas de trabajo de inferencia son más diversas y pueden ser manejadas por distintos tipos de hardware especializado.

Se espera que los productos basados en Blackwell Ultra estén disponibles a través de socios a partir de la segunda mitad de 2025. Proveedores de nube como Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure serán de los primeros en ofrecer instancias potenciadas por Blackwell Ultra, seguidos por fabricantes de servidores como Dell, HPE, Lenovo y Supermicro con sus propias implementaciones.

La nueva arquitectura aprovecha el motor Transformer de segunda generación de NVIDIA con tecnología personalizada Blackwell Tensor Core, combinada con innovaciones de TensorRT-LLM y el marco NeMo para acelerar tanto la inferencia como el entrenamiento de grandes modelos de lenguaje. Los Tensor Cores de Blackwell Ultra ofrecen el doble de aceleración en capas de atención y 1.5 veces más FLOPS de cómputo de IA en comparación con las GPU Blackwell estándar.

Según NVIDIA, la familia Blackwell Ultra presume hasta 15 petaFLOPS de rendimiento denso en punto flotante de 4 bits y hasta 288 GB de memoria HBM3e por chip. Esto es especialmente relevante para la inferencia de IA, que depende principalmente de la memoria: a mayor memoria disponible, mayor es el tamaño del modelo que se puede servir. Ian Buck, vicepresidente de hiperescala y HPC de NVIDIA, afirma que Blackwell Ultra permitirá servir modelos de razonamiento con un rendimiento 10 veces superior a la generación Hopper anterior, reduciendo los tiempos de respuesta de más de un minuto a tan solo diez segundos.

NVIDIA enfrenta una competencia creciente por parte de AMD, que recientemente lanzó su serie MI300 para cargas de trabajo de IA y ha ganado adopción de empresas que buscan alternativas ante las limitaciones de suministro de NVIDIA. En 2025, AMD anunció la adquisición de ingenieros de hardware y software de IA de Untether AI para fortalecer sus capacidades de inferencia. Amazon también demuestra ambiciones de controlar toda la pila de infraestructura de IA con sus chips Graviton4 y Trainium de Project Rainier, logrando entrenar modelos de IA de gran escala como Claude 4 en hardware que no es de NVIDIA.

A pesar de estos desafíos, analistas proyectan que las ventas de centros de datos de NVIDIA crecerán hasta 200 mil millones de dólares en 2025, manteniendo aproximadamente un 80-85% de participación de mercado en el corto plazo. La estrategia de la compañía con Blackwell Ultra parece enfocada en asegurar su posición en el mercado de inferencia mientras continúa innovando en capacidades de entrenamiento, lo que podría cambiar la suposición de que los principales modelos de IA deben depender exclusivamente del hardware de NVIDIA.

Source: Technologyreview

Latest News