menu
close

AWS dévoile un système de refroidissement sur mesure pour les puces IA de prochaine génération

Amazon Web Services a mis au point l’In-Row Heat Exchanger (IRHX), un système hybride de refroidissement liquide-air conçu spécifiquement pour les GPU Blackwell de Nvidia, très énergivores et utilisés dans les charges de travail avancées en intelligence artificielle. Cette solution innovante répond à la chaleur extrême générée par les racks de GPU à haute densité, sans nécessiter de rénovations majeures des centres de données ni augmenter la consommation d’eau. Cette technologie permet à AWS d’offrir ses nouvelles instances P6e, dotées de la plateforme Nvidia GB200 NVL72, qui regroupe 72 GPU interconnectés dans un seul rack pour une puissance de calcul IA inégalée.
AWS dévoile un système de refroidissement sur mesure pour les puces IA de prochaine génération

Amazon Web Services (AWS) a présenté une solution de refroidissement révolutionnaire pour relever l’un des plus grands défis d’infrastructure de l’IA : la gestion de la chaleur considérable générée par les processeurs IA de pointe d’aujourd’hui.

L’In-Row Heat Exchanger (IRHX) représente l’approche personnalisée d’AWS pour refroidir la dernière génération de processeurs graphiques (GPU) de Nvidia, essentiels à l’entraînement et à l’exécution de grands modèles d’IA, mais qui consomment d’énormes quantités d’énergie. Les systèmes de refroidissement à air traditionnels, suffisants pour les générations précédentes de GPU, ne peuvent tout simplement pas répondre aux exigences thermiques des puces basées sur Blackwell de Nvidia.

« Ils occuperaient trop d’espace au sol dans les centres de données ou augmenteraient considérablement la consommation d’eau », explique Dave Brown, vice-président des services de calcul et d’apprentissage automatique chez AWS, à propos des limites des solutions de refroidissement existantes. L’IRHX répond à ces contraintes en faisant circuler un liquide refroidi à proximité des rangées de serveurs, grâce à un système d’unités de pompage, d’armoires de distribution d’eau et de serpentins de ventilation, éliminant efficacement la chaleur des GPU densément regroupés sans nécessiter de refonte majeure des centres de données.

Cette technologie de refroidissement fonctionne de concert avec les nouvelles instances P6e d’AWS, qui exploitent la plateforme Nvidia GB200 NVL72 — un système de supercalcul intégrant 72 GPU Blackwell interconnectés dans un seul rack. Cette configuration offre 360 pétaflops de puissance de calcul et plus de 13 To de mémoire, permettant aux clients d’entraîner des modèles d’IA beaucoup plus volumineux, plus rapidement et plus efficacement.

Au-delà des gains de performance, l’IRHX utilise un mécanisme de refroidissement « en boucle fermée » qui fait recirculer le liquide de refroidissement sans augmenter la consommation d’eau, ce qui en fait une solution écologique. AWS estime que ses nouveaux systèmes de refroidissement peuvent réduire la consommation d’énergie mécanique jusqu’à 46 % lors des pics de refroidissement, comparativement aux conceptions antérieures.

Le développement de l’IRHX s’inscrit dans la stratégie plus large d’AWS de concevoir ses propres composants d’infrastructure. Au cours des dernières années, l’entreprise a beaucoup investi dans la création de ses propres puces, systèmes de stockage et équipements réseau. Cette approche s’est avérée rentable : au premier trimestre de 2025, AWS a atteint sa plus forte marge opérationnelle depuis la création de l’unité.

Alors que d’autres géants technologiques comme Microsoft, Google et Meta adoptent des stratégies similaires de matériel personnalisé pour les charges de travail en IA, AWS conserve un avantage concurrentiel grâce à son vaste réseau mondial de centres de données et à son expérience dans le déploiement de matériel sur mesure à grande échelle. La technologie IRHX renforce encore la position d’AWS comme chef de file en infrastructure IA, rendant le calcul avancé en intelligence artificielle plus efficace, durable et accessible.

Source: Shrm

Latest News