Matapang na hakbang ang ginagawa ng AMD upang hamunin ang dominasyon ng Nvidia sa AI hardware market sa pamamagitan ng pag-anunsyo ng bagong Helios AI server system at makabuluhang pakikipagsosyo sa OpenAI.
Sa Advancing AI 2025 event nito sa San Jose noong Hunyo 12, inilantad ni AMD CEO Lisa Su ang komprehensibong bisyon ng kumpanya para sa isang bukas na AI ecosystem, tampok ang kasalukuyan at hinaharap na mga inobasyon sa hardware. Pinakatampok dito ang preview ng Helios, ang susunod na henerasyon ng rack-scale AI infrastructure ng AMD na nakatakdang ilabas sa 2026.
"Sa unang pagkakataon, dinisenyo namin ang bawat bahagi ng rack bilang isang pinag-isang sistema," paliwanag ni Su sa kanyang presentasyon. "Isipin ninyo ang Helios bilang isang rack na kumikilos na parang isang napakalaking compute engine."
Ang Helios system ay gagamit ng paparating na Instinct MI400 Series GPUs ng AMD, na inaasahang maghahatid ng hanggang 10x na pagtaas ng performance para sa inference sa Mixture of Experts models kumpara sa kasalukuyang mga accelerator. Ang mga chip na ito ay magkakaroon ng 432GB na HBM4 memory at 19.6TB/s na memory bandwidth, na direktang kakompetensya ng paparating na Vera Rubin platform ng Nvidia.
Sa isang mahalagang pangyayari sa industriya, sumama si OpenAI CEO Sam Altman kay Su sa entablado upang ianunsyo na gagamitin ng ChatGPT creator ang pinakabagong chips ng AMD bilang bahagi ng kanilang compute portfolio. "Nang una mong ikinuwento sa akin ang specs, naisip ko, imposibleng mangyari iyon, parang sobrang imposible," ani Altman. "Magiging kamangha-manghang bagay ito."
Nagbigay na ng feedback ang OpenAI sa proseso ng pag-develop ng GPU ng AMD, at kinumpirma ni Altman na tumatakbo na ang ilang workload nila sa MI300X at "labis silang nasasabik" sa MI400 Series. Ang partnership na ito ay isang malaking pagbabago para sa OpenAI, na dati ay pangunahing umaasa sa Nvidia GPUs na binibili mula sa mga provider tulad ng Microsoft, Oracle, at CoreWeave.
Inilunsad din ng AMD ang Instinct MI350 Series GPUs sa event, na magiging available sa Q3 2025. Ang mga accelerator na ito ay nagdadala ng 4x na pagtaas ng AI compute generation-on-generation at hanggang 35x na pagbuti sa inferencing performance. Ang MI350 Series ay may 288GB na HBM3E memory na may 8TB/s bandwidth at sumusuporta sa mga bagong FP4 at FP6 data types na in-optimize para sa AI workloads.
Hindi tulad ng proprietary na approach ng Nvidia, binibigyang-diin ng AMD ang open standards at interoperability. Gumagamit ang kumpanya ng open-source networking technology na tinatawag na UALink para sa kanilang rack systems, na kabaligtaran ng proprietary NVLink ng Nvidia. "Ang kinabukasan ng AI ay hindi itatayo ng iisang kumpanya o sa isang saradong ecosystem. Ito ay huhubugin ng bukas na kolaborasyon sa buong industriya," pahayag ni Su.
Sa kabila ng mga ambisyosong anunsyo, bumaba ng 2.2% ang shares ng AMD matapos ang event, na nagpapakita ng pag-aalinlangan ng Wall Street sa kakayahan ng kumpanya na seryosong gambalain ang tinatayang 90% market share ng Nvidia sa malapit na hinaharap. Gayunpaman, sa inaasahang lalagpas sa $500 bilyon ang AI chip market pagsapit ng 2028, inilalagay ng AMD ang sarili para sa pangmatagalang paglago sa mabilis na lumalawak na sektor na ito.