AMD wykonuje odważny krok, by rzucić wyzwanie dominacji Nvidii na rynku sprzętu AI, ogłaszając nowy system serwerowy Helios AI oraz znaczące partnerstwo z OpenAI.
Podczas wydarzenia Advancing AI 2025 w San Jose 12 czerwca, CEO AMD Lisa Su przedstawiła kompleksową wizję otwartego ekosystemu AI, prezentując zarówno obecne, jak i przyszłe innowacje sprzętowe. Głównym punktem programu była zapowiedź Helios – nowej generacji infrastruktury AI na poziomie racka, której premiera planowana jest na 2026 rok.
"Po raz pierwszy zaprojektowaliśmy każdą część racka jako jednolity system" – wyjaśniła Su podczas prezentacji. "Pomyślcie o Heliosie jak o racku, który działa jak pojedynczy, ogromny silnik obliczeniowy."
System Helios będzie napędzany przez nadchodzące procesory graficzne AMD Instinct z serii MI400, które mają zapewnić nawet 10-krotny wzrost wydajności w zadaniach inferencyjnych na modelach Mixture of Experts w porównaniu do obecnej generacji akceleratorów. Układy te będą wyposażone w 432 GB pamięci HBM4 oraz przepustowość pamięci na poziomie 19,6 TB/s, co plasuje je jako bezpośrednią konkurencję dla nadchodzącej platformy Vera Rubin od Nvidii.
W istotnym dla branży ruchu, CEO OpenAI Sam Altman dołączył do Su na scenie, ogłaszając, że twórca ChatGPT wdroży najnowsze układy AMD jako część swojego portfolio obliczeniowego. "Kiedy po raz pierwszy opowiadałaś mi o tych parametrach, pomyślałem: to niemożliwe, brzmi zupełnie niewiarygodnie" – skomentował Altman. "To będzie coś niesamowitego."
OpenAI udzielało informacji zwrotnych podczas procesu rozwoju GPU AMD, a Altman potwierdził, że już teraz uruchamiają niektóre obciążenia na MI300X i są "niezwykle podekscytowani" serią MI400. To partnerstwo oznacza znaczącą zmianę dla OpenAI, które dotychczas polegało głównie na GPU Nvidii kupowanych za pośrednictwem dostawców takich jak Microsoft, Oracle czy CoreWeave.
AMD zaprezentowało również podczas wydarzenia akceleratory Instinct MI350 Series, które będą dostępne w trzecim kwartale 2025 roku. Te akceleratory zapewniają czterokrotny wzrost mocy obliczeniowej AI generacja do generacji oraz nawet 35-krotną poprawę wydajności inferencji. Seria MI350 oferuje 288 GB pamięci HBM3E z przepustowością 8 TB/s i obsługuje nowe typy danych FP4 i FP6 zoptymalizowane pod kątem obciążeń AI.
W przeciwieństwie do zamkniętego podejścia Nvidii, AMD stawia na otwarte standardy i interoperacyjność. Firma wykorzystuje otwartoźródłową technologię sieciową UALink w swoich systemach rackowych, w przeciwieństwie do zastrzeżonego NVLink od Nvidii. "Przyszłość AI nie zostanie zbudowana przez jedną firmę ani w zamkniętym ekosystemie. Ukształtuje ją otwarta współpraca w całej branży" – podkreśliła Su.
Pomimo ambitnych zapowiedzi, akcje AMD zakończyły dzień o 2,2% niżej po wydarzeniu, co wskazuje, że Wall Street pozostaje sceptyczna wobec możliwości firmy, by w krótkim terminie poważnie zagrozić szacowanemu 90% udziałowi Nvidii w rynku. Jednak przy prognozowanej wartości rynku chipów AI przekraczającej 500 miliardów dolarów do 2028 roku, AMD pozycjonuje się na długoterminowy wzrost w tym dynamicznie rozwijającym się sektorze.