menu
close

AMD携Helios AI服务器及OpenAI联盟挑战英伟达

AMD发布了新一代Helios AI服务器系统,并宣布与OpenAI达成战略合作。该新型机架级基础设施基于即将推出的MI400系列GPU打造,预计2026年上市时可为AI工作负载带来10倍性能提升。OpenAI首席执行官Sam Altman与AMD CEO苏姿丰同台宣布合作,确认OpenAI为产品设计提供了建议,并将采用AMD最新芯片以实现算力多元化。
AMD携Helios AI服务器及OpenAI联盟挑战英伟达

AMD正以全新Helios AI服务器系统及与OpenAI的重要合作,向英伟达在AI硬件市场的主导地位发起挑战。

在6月12日于圣何塞举办的“Advancing AI 2025”大会上,AMD首席执行官苏姿丰(Lisa Su)展示了公司打造开放AI生态系统的全面愿景,涵盖现有及未来的硬件创新。会议的核心亮点是预览了Helios——AMD下一代机架级AI基础设施,计划于2026年发布。

“我们首次将机架的每个部分都作为一个统一的系统进行架构设计,”苏姿丰在演讲中表示,“可以把Helios看作是一台巨型计算引擎的机架。”

Helios系统将搭载AMD即将推出的Instinct MI400系列GPU,预计在专家混合(Mixture of Experts)模型推理方面,相较当前一代加速器可实现高达10倍的性能提升。这些芯片将配备432GB HBM4高带宽内存和19.6TB/s的内存带宽,直接对标英伟达即将发布的Vera Rubin平台。

在业界具有里程碑意义的发展中,OpenAI首席执行官Sam Altman与苏姿丰同台宣布,ChatGPT的开发者将把AMD最新芯片纳入其算力组合。Altman表示:“你第一次跟我讲这些规格时,我简直不敢相信,听起来太疯狂了。这将会是非常了不起的事情。”

OpenAI在AMD GPU开发过程中持续提供反馈,Altman确认他们已经在部分工作负载中使用MI300X,并对MI400系列“极为期待”。这一合作标志着OpenAI策略的重大转变,此前其主要依赖通过微软、甲骨文和CoreWeave等供应商采购的英伟达GPU。

AMD还在大会上发布了Instinct MI350系列GPU,预计2025年第三季度上市。该加速器实现了4倍代际AI算力提升,推理性能提升高达35倍。MI350系列配备288GB HBM3E内存和8TB/s带宽,支持专为AI工作负载优化的FP4和FP6新型数据类型。

与英伟达的专有策略不同,AMD强调开放标准与互操作性。公司为机架系统采用了名为UALink的开源网络技术,与英伟达的专有NVLink形成对比。苏姿丰表示:“AI的未来不会由某一家企业或封闭生态系统主导,而是由全行业的开放协作共同塑造。”

尽管发布会内容雄心勃勃,但AMD股价在活动后下跌2.2%,显示华尔街对其短期内能否撼动英伟达约90%市场份额仍持怀疑态度。然而,随着AI芯片市场预计到2028年将突破5000亿美元,AMD正积极布局这一高速增长领域,谋求长期发展。

Source:

Latest News