menu
close

AWS presenta sistema de enfriamiento personalizado para chips de IA de próxima generación

Amazon Web Services ha desarrollado el In-Row Heat Exchanger (IRHX), un sistema híbrido de enfriamiento líquido-aire diseñado específicamente para las GPUs Blackwell de Nvidia, conocidas por su alto consumo energético en cargas de trabajo avanzadas de IA. Esta innovadora solución aborda el calor extremo generado por racks de GPU de alta densidad sin requerir renovaciones importantes en los centros de datos ni aumentar el consumo de agua. Gracias a esta tecnología, AWS puede ofrecer sus nuevas instancias P6e con la plataforma GB200 NVL72 de Nvidia, que integra 72 GPUs interconectadas en un solo rack para ofrecer un poder de cómputo de IA sin precedentes.
AWS presenta sistema de enfriamiento personalizado para chips de IA de próxima generación

Amazon Web Services (AWS) ha presentado una solución revolucionaria de enfriamiento para enfrentar uno de los retos más importantes en la infraestructura de la inteligencia artificial: gestionar el inmenso calor generado por los potentes procesadores de IA actuales.

El In-Row Heat Exchanger (IRHX) representa el enfoque personalizado de AWS para enfriar la última generación de unidades de procesamiento gráfico (GPUs) de Nvidia, esenciales para entrenar y ejecutar grandes modelos de IA, pero que consumen enormes cantidades de energía. Los sistemas tradicionales de enfriamiento por aire, suficientes para generaciones anteriores de GPUs, simplemente no pueden manejar las demandas térmicas de los chips basados en Blackwell de Nvidia.

"Ocuparían demasiado espacio en el piso del centro de datos o incrementarían sustancialmente el uso de agua", explicó Dave Brown, vicepresidente de Servicios de Cómputo y Aprendizaje Automático en AWS, sobre por qué las soluciones de enfriamiento existentes no eran adecuadas. El IRHX resuelve estas limitaciones al hacer circular líquido enfriado cerca de las filas de servidores mediante un sistema de unidades de bombeo, gabinetes de distribución de agua y serpentines con ventiladores, eliminando eficazmente el calor de las GPUs densamente agrupadas sin requerir rediseños completos de los centros de datos.

Esta tecnología de enfriamiento funciona en conjunto con las recién lanzadas instancias P6e de AWS, que aprovechan la plataforma GB200 NVL72 de Nvidia: un sistema de supercómputo que contiene 72 GPUs Blackwell interconectadas dentro de un solo rack. Esta configuración ofrece 360 petaflops de poder de cómputo y más de 13 TB de memoria, permitiendo a los clientes entrenar modelos de IA mucho más grandes de manera más rápida y eficiente.

Más allá de los beneficios en rendimiento, el IRHX emplea un mecanismo de enfriamiento "de circuito cerrado" que recircula el refrigerante sin aumentar el consumo de agua, lo que lo hace ambientalmente sostenible. AWS estima que sus sistemas de enfriamiento más recientes pueden reducir el consumo de energía mecánica hasta en un 46% durante condiciones máximas de enfriamiento en comparación con diseños anteriores.

El desarrollo del IRHX está alineado con la estrategia más amplia de AWS de crear componentes de infraestructura personalizados. En los últimos años, la compañía ha invertido fuertemente en el desarrollo de sus propios chips, sistemas de almacenamiento y equipos de red. Este enfoque ha resultado financieramente beneficioso: en el primer trimestre de 2025, AWS alcanzó su mayor margen operativo desde la creación de la unidad.

Mientras que otros gigantes tecnológicos como Microsoft, Google y Meta están siguiendo estrategias similares de hardware personalizado para cargas de trabajo de IA, AWS mantiene una ventaja competitiva gracias a su amplia red global de centros de datos y su experiencia en el despliegue de hardware personalizado a gran escala. La tecnología IRHX refuerza aún más la posición de AWS como líder en infraestructura de IA, haciendo que el cómputo avanzado de IA sea más eficiente, sostenible y accesible.

Source: Shrm

Latest News