menu
close

AWS prezentuje autorski system chłodzenia dla najnowszych chipów AI

Amazon Web Services opracował In-Row Heat Exchanger (IRHX) – hybrydowy system chłodzenia ciecz-powietrze, zaprojektowany specjalnie dla energochłonnych układów GPU Blackwell firmy Nvidia, wykorzystywanych w zaawansowanych zadaniach AI. Innowacyjne rozwiązanie eliminuje problem ekstremalnego nagrzewania się gęsto upakowanych szaf GPU bez konieczności gruntownych modernizacji centrów danych czy zwiększania zużycia wody. Technologia ta umożliwia AWS oferowanie nowych instancji P6e z platformą Nvidia GB200 NVL72, mieszczącą 72 połączone GPU w jednej szafie, zapewniając niespotykaną dotąd moc obliczeniową dla AI.
AWS prezentuje autorski system chłodzenia dla najnowszych chipów AI

Amazon Web Services (AWS) wprowadził przełomowe rozwiązanie chłodzące, które ma rozwiązać jeden z najważniejszych problemów infrastrukturalnych związanych ze sztuczną inteligencją: zarządzanie ogromną ilością ciepła generowaną przez współczesne, potężne procesory AI.

In-Row Heat Exchanger (IRHX) to autorska koncepcja AWS na chłodzenie najnowszej generacji układów graficznych (GPU) firmy Nvidia, niezbędnych do trenowania i uruchamiania dużych modeli AI, lecz pochłaniających ogromne ilości energii. Tradycyjne systemy chłodzenia powietrzem, wystarczające dla poprzednich generacji GPU, nie są w stanie sprostać wymaganiom termicznym układów opartych na architekturze Blackwell.

„Zajmowałyby zbyt dużo miejsca na podłodze centrum danych lub znacząco zwiększałyby zużycie wody” – wyjaśnił Dave Brown, wiceprezes ds. usług obliczeniowych i uczenia maszynowego w AWS, odnosząc się do niedoskonałości dotychczasowych rozwiązań chłodzących. IRHX rozwiązuje te ograniczenia poprzez cyrkulację schłodzonej cieczy w pobliżu rzędów serwerowych za pomocą systemu pomp, szaf dystrybucji wody i wymienników ciepła z wentylatorami, skutecznie odprowadzając ciepło z gęsto upakowanych GPU bez konieczności gruntownej przebudowy centrów danych.

Technologia chłodzenia współpracuje z nowo uruchomionymi przez AWS instancjami P6e, które wykorzystują platformę Nvidia GB200 NVL72 – superkomputer zawierający 72 układy Blackwell połączone w jednej szafie. Taka konfiguracja zapewnia 360 petaflopsów mocy obliczeniowej oraz ponad 13 TB pamięci, umożliwiając klientom szybsze i bardziej efektywne trenowanie znacznie większych modeli AI.

Poza korzyściami wydajnościowymi, IRHX wykorzystuje mechanizm chłodzenia „w obiegu zamkniętym”, który recyrkuluje czynnik chłodzący bez zwiększania zużycia wody, czyniąc rozwiązanie przyjaznym środowisku. AWS szacuje, że nowe systemy chłodzenia mogą zmniejszyć zużycie energii mechanicznej nawet o 46% podczas szczytowych warunków chłodzenia w porównaniu do wcześniejszych projektów.

Opracowanie IRHX wpisuje się w szerszą strategię AWS polegającą na tworzeniu autorskich komponentów infrastrukturalnych. W ostatnich latach firma intensywnie inwestowała w rozwój własnych chipów, systemów pamięci masowej i sprzętu sieciowego. Podejście to okazało się opłacalne – w pierwszym kwartale 2025 roku AWS osiągnął najwyższą marżę operacyjną od początku istnienia tej jednostki.

Podczas gdy inni giganci technologiczni, tacy jak Microsoft, Google czy Meta, również rozwijają własny sprzęt na potrzeby AI, AWS utrzymuje przewagę konkurencyjną dzięki rozbudowanej globalnej infrastrukturze centrów danych oraz doświadczeniu w masowym wdrażaniu autorskiego sprzętu. Technologia IRHX dodatkowo wzmacnia pozycję AWS jako lidera infrastruktury AI, czyniąc zaawansowane obliczenia AI bardziej wydajnymi, zrównoważonymi i dostępnymi.

Source: Shrm

Latest News