AMD가 새로운 Helios AI 서버 시스템과 OpenAI와의 대규모 파트너십을 발표하며 AI 하드웨어 시장에서 엔비디아의 독주에 본격적으로 도전장을 내밀었다.
6월 12일 미국 산호세에서 열린 'Advancing AI 2025' 행사에서 AMD CEO 리사 수는 오픈 AI 생태계에 대한 회사의 포괄적 비전을 공개하고, 현재와 미래의 하드웨어 혁신을 선보였다. 이 자리에서 공개된 핵심은 2026년 출시 예정인 차세대 랙스케일 AI 인프라 'Helios'의 프리뷰였다.
"이번에는 랙의 모든 부분을 하나의 통합 시스템으로 설계했습니다."라고 수는 발표 중 설명했다. "Helios는 하나의 거대한 컴퓨트 엔진처럼 동작하는 랙이라고 생각하시면 됩니다."
Helios 시스템은 AMD의 차세대 Instinct MI400 시리즈 GPU로 구동되며, 현재 세대 가속기 대비 Mixture of Experts 모델 추론에서 최대 10배의 성능 향상을 제공할 것으로 기대된다. 이 칩은 432GB의 HBM4 메모리와 19.6TB/s의 메모리 대역폭을 갖추고 있어, 엔비디아의 차세대 Vera Rubin 플랫폼과 정면으로 경쟁하게 된다.
업계의 주목할 만한 변화로, OpenAI CEO 샘 알트먼이 리사 수와 함께 무대에 올라 챗GPT 개발사가 AMD의 최신 칩을 컴퓨트 포트폴리오에 도입할 것임을 공식 발표했다. 알트먼은 "처음에 사양을 들었을 때는 믿기지 않을 정도로 놀라웠습니다. 정말 대단한 일이 될 것입니다."라고 소감을 밝혔다.
OpenAI는 AMD의 GPU 개발 과정에서 지속적으로 피드백을 제공했으며, 알트먼은 이미 일부 워크로드를 MI300X에서 구동 중이고 MI400 시리즈에 대해 "매우 기대하고 있다"고 전했다. 이번 파트너십은 그간 마이크로소프트, 오라클, 코어위브 등 공급업체를 통해 주로 엔비디아 GPU에 의존해온 OpenAI의 전략적 변화로 평가된다.
AMD는 이번 행사에서 Instinct MI350 시리즈 GPU도 공개했다. 해당 가속기는 2025년 3분기 출시 예정이며, 전 세대 대비 4배의 AI 컴퓨트 성능과 최대 35배의 추론 성능 향상을 제공한다. MI350 시리즈는 288GB의 HBM3E 메모리와 8TB/s 대역폭, AI 워크로드에 최적화된 새로운 FP4 및 FP6 데이터 타입을 지원한다.
엔비디아의 폐쇄적 접근과 달리, AMD는 오픈 스탠더드와 상호운용성을 강조한다. AMD는 랙 시스템에 독점 기술인 NVLink 대신 오픈소스 네트워킹 기술인 UALink를 적용한다. 수는 "AI의 미래는 한 기업이나 폐쇄된 생태계가 아닌, 업계 전반의 오픈 협업을 통해 만들어질 것"이라고 강조했다.
이처럼 야심찬 발표에도 불구하고, 행사 이후 AMD 주가는 2.2% 하락해 월가가 단기적으로 엔비디아의 약 90% 시장 점유율을 AMD가 크게 흔들 수 있을지에 대해 여전히 회의적임을 드러냈다. 그러나 AI 칩 시장이 2028년까지 5,000억 달러를 돌파할 것으로 전망되는 가운데, AMD는 이 급성장하는 분야에서 장기적 성장 기반을 다지고 있다.