AMD face o mișcare îndrăzneață pentru a contesta dominația Nvidia pe piața hardware-ului AI, anunțând noul său sistem de servere AI Helios și un parteneriat semnificativ cu OpenAI.
La evenimentul Advancing AI 2025, desfășurat pe 12 iunie la San Jose, CEO-ul AMD, Lisa Su, a prezentat viziunea cuprinzătoare a companiei pentru un ecosistem AI deschis, evidențiind atât inovațiile hardware actuale, cât și pe cele viitoare. Piesa centrală a fost prezentarea în avanpremieră a Helios, infrastructura AI la scară de rack de generație următoare a AMD, programată pentru lansare în 2026.
„Pentru prima dată, am proiectat fiecare parte a rack-ului ca pe un sistem unificat”, a explicat Su în timpul prezentării. „Gândiți-vă la Helios ca la un rack care funcționează ca un singur motor de calcul masiv.”
Sistemul Helios va fi alimentat de viitoarele GPU-uri Instinct din seria MI400 de la AMD, care se așteaptă să ofere o îmbunătățire de până la 10 ori a performanței pentru inferența pe modelele Mixture of Experts, comparativ cu acceleratoarele generației actuale. Aceste cipuri vor dispune de 432 GB memorie HBM4 și o lățime de bandă a memoriei de 19,6 TB/s, poziționându-le drept concurenți direcți ai viitoarei platforme Vera Rubin de la Nvidia.
Într-o evoluție semnificativă pentru industrie, CEO-ul OpenAI, Sam Altman, s-a alăturat lui Su pe scenă pentru a anunța că creatorul ChatGPT va adopta cele mai noi cipuri AMD ca parte a portofoliului său de calcul. „Când mi-ai spus prima dată specificațiile, am zis: nu se poate, sună complet nebunesc”, a remarcat Altman. „Va fi ceva uimitor.”
OpenAI a oferit feedback pe parcursul procesului de dezvoltare a GPU-urilor AMD, Altman confirmând că deja rulează unele sarcini de lucru pe MI300X și sunt „extrem de entuziasmați” de seria MI400. Acest parteneriat marchează o schimbare notabilă pentru OpenAI, care până acum s-a bazat în principal pe GPU-uri Nvidia achiziționate prin furnizori precum Microsoft, Oracle și CoreWeave.
AMD a lansat, de asemenea, la eveniment, GPU-urile din seria Instinct MI350, care vor fi disponibile în trimestrul al treilea din 2025. Aceste acceleratoare oferă o creștere de 4 ori a puterii de calcul AI de la o generație la alta și până la 35 de ori îmbunătățire a performanței de inferență. Seria MI350 dispune de 288 GB memorie HBM3E cu o lățime de bandă de 8 TB/s și suportă noi tipuri de date FP4 și FP6, optimizate pentru sarcinile AI.
Spre deosebire de abordarea proprietară a Nvidia, AMD pune accent pe standarde deschise și interoperabilitate. Compania utilizează o tehnologie de rețea open-source numită UALink pentru sistemele sale de rack, în contrast cu NVLink-ul proprietar de la Nvidia. „Viitorul AI nu va fi construit de o singură companie sau într-un ecosistem închis. Va fi modelat prin colaborare deschisă la nivelul întregii industrii”, a declarat Su.
În ciuda anunțurilor ambițioase, acțiunile AMD au scăzut cu 2,2% după eveniment, semn că Wall Street rămâne sceptic cu privire la capacitatea companiei de a perturba semnificativ cota de piață estimată la 90% a Nvidia pe termen scurt. Totuși, cu o piață a cipurilor AI estimată să depășească 500 de miliarde de dolari până în 2028, AMD se poziționează pentru o creștere pe termen lung în acest sector aflat în plină expansiune.