menu
close

AMD предизвиква Nvidia с Helios AI сървър и съюз с OpenAI

AMD представи новото си поколение сървърна система Helios AI, заедно със стратегическо партньорство с OpenAI. Новата инфраструктура на ниво шкаф, изградена около предстоящите графични ускорители от серията MI400, цели да осигури 10-кратно увеличение на производителността за AI натоварвания при старта си през 2026 г. Главният изпълнителен директор на OpenAI Сам Алтман се присъедини към Лиза Су, CEO на AMD, за да обявят сътрудничеството, потвърждавайки, че OpenAI е предоставила проектни насоки и ще използва най-новите чипове на AMD, за да диверсифицира изчислителната си инфраструктура.
AMD предизвиква Nvidia с Helios AI сървър и съюз с OpenAI

AMD прави смела стъпка, за да оспори доминацията на Nvidia на пазара за AI хардуер с анонса на новата си сървърна система Helios AI и значимо партньорство с OpenAI.

На събитието Advancing AI 2025 в Сан Хосе на 12 юни, изпълнителният директор на AMD Лиза Су представи цялостната визия на компанията за отворена AI екосистема, демонстрирайки както настоящи, така и бъдещи хардуерни иновации. Основният акцент беше предварителният преглед на Helios — следващото поколение AI инфраструктура на ниво шкаф, планирана за пускане през 2026 г.

"За първи път проектирахме всяка част от шкафа като единна система," обясни Су по време на презентацията. "Мислете за Helios като за шкаф, който функционира като един огромен изчислителен двигател."

Системата Helios ще бъде задвижвана от предстоящите графични ускорители Instinct MI400 Series на AMD, които се очаква да осигурят до 10-кратно увеличение на производителността при инференция на Mixture of Experts модели спрямо настоящото поколение ускорители. Тези чипове ще разполагат с 432GB HBM4 памет и 19.6TB/s пропускателна способност, позиционирайки ги като директни конкуренти на предстоящата платформа Vera Rubin на Nvidia.

В значимо развитие за индустрията, CEO-то на OpenAI Сам Алтман се присъедини към Су на сцената, за да обяви, че създателят на ChatGPT ще приеме най-новите чипове на AMD като част от своя изчислителен портфейл. "Когато за първи път ми разказа за спецификациите, си помислих, че няма начин, звучи напълно невероятно," коментира Алтман. "Ще бъде нещо удивително."

OpenAI предоставя обратна връзка по време на разработката на GPU-тата на AMD, като Алтман потвърди, че вече изпълняват някои натоварвания на MI300X и са "изключително развълнувани" за серията MI400. Това партньорство бележи значителна промяна за OpenAI, която досега основно разчиташе на GPU-та на Nvidia, закупувани чрез доставчици като Microsoft, Oracle и CoreWeave.

AMD също така представи своите ускорители Instinct MI350 Series по време на събитието, които ще са налични през третото тримесечие на 2025 г. Тези ускорители осигуряват 4-кратно увеличение на AI изчисленията спрямо предходното поколение и до 35-кратно подобрение при инференция. Серията MI350 разполага с 288GB HBM3E памет с 8TB/s пропускателна способност и поддържа нови типове данни FP4 и FP6, оптимизирани за AI натоварвания.

За разлика от проприетарния подход на Nvidia, AMD залага на отворени стандарти и съвместимост. Компанията използва отворена мрежова технология, наречена UALink, за своите шкафови системи, в контраст с проприетарния NVLink на Nvidia. "Бъдещето на AI няма да бъде изградено от една компания или в затворена екосистема. То ще бъде формирано от отворено сътрудничество в цялата индустрия," заяви Су.

Въпреки амбициозните анонси, акциите на AMD завършиха с 2.2% спад след събитието, което показва, че Уолстрийт остава скептичен относно способността на компанията да разклати значително приблизителния 90% пазарен дял на Nvidia в краткосрочен план. Въпреки това, с прогнозирания ръст на пазара за AI чипове до над 500 милиарда долара до 2028 г., AMD се позиционира за дългосрочен растеж в този бързо разширяващ се сектор.

Source:

Latest News