Amazon Web Services (AWS) ha presentato una soluzione di raffreddamento rivoluzionaria per affrontare una delle principali sfide infrastrutturali dell’intelligenza artificiale: la gestione dell’enorme calore generato dai potenti processori AI odierni.
L’In-Row Heat Exchanger (IRHX) rappresenta l’approccio personalizzato di AWS al raffreddamento delle più recenti unità di elaborazione grafica (GPU) di Nvidia, fondamentali per l’addestramento e l’esecuzione di grandi modelli AI ma caratterizzate da un consumo energetico elevatissimo. I sistemi di raffreddamento ad aria tradizionali, adeguati per le generazioni precedenti di GPU, non sono più sufficienti per soddisfare le esigenze termiche dei chip basati su Blackwell di Nvidia.
«Richiederebbero troppo spazio a pavimento nei data center o aumenterebbero notevolmente il consumo d’acqua», ha spiegato Dave Brown, Vicepresidente Compute and Machine Learning Services di AWS, illustrando perché le soluzioni di raffreddamento esistenti risultano inadeguate. L’IRHX supera questi limiti facendo circolare un liquido refrigerato vicino alle file di server tramite un sistema di unità di pompaggio, armadi di distribuzione dell’acqua e batterie di ventilatori, rimuovendo efficacemente il calore dalle GPU densamente impacchettate senza la necessità di riprogettare completamente i data center.
Questa tecnologia di raffreddamento lavora in sinergia con le nuove istanze P6e di AWS, che sfruttano la piattaforma Nvidia GB200 NVL72—un sistema di supercalcolo che integra 72 GPU Blackwell interconnesse in un singolo rack. Questa configurazione offre 360 petaflops di potenza di calcolo e oltre 13 TB di memoria, consentendo ai clienti di addestrare modelli AI molto più grandi in modo più rapido ed efficiente.
Oltre ai vantaggi prestazionali, l’IRHX utilizza un meccanismo di raffreddamento “a circuito chiuso” che ricircola il liquido refrigerante senza aumentare il consumo d’acqua, rendendolo sostenibile dal punto di vista ambientale. AWS stima che i suoi nuovi sistemi di raffreddamento possano ridurre il consumo di energia meccanica fino al 46% durante i picchi di raffreddamento rispetto ai progetti precedenti.
Lo sviluppo dell’IRHX si inserisce nella più ampia strategia di AWS volta a realizzare componenti infrastrutturali su misura. Negli ultimi anni, l’azienda ha investito massicciamente nella creazione di chip, sistemi di storage e apparati di rete proprietari. Questo approccio si è rivelato vantaggioso anche dal punto di vista finanziario: nel primo trimestre del 2025, AWS ha registrato il margine operativo più alto dalla nascita della divisione.
Sebbene altri colossi tecnologici come Microsoft, Google e Meta stiano perseguendo strategie simili di hardware personalizzato per i carichi AI, AWS mantiene un vantaggio competitivo grazie alla sua vasta rete globale di data center e all’esperienza nell’implementazione su larga scala di hardware su misura. La tecnologia IRHX rafforza ulteriormente la posizione di AWS come leader nell’infrastruttura AI, rendendo il calcolo avanzato per l’intelligenza artificiale più efficiente, sostenibile e accessibile.