تقوم AMD بخطوة جريئة لمنافسة هيمنة Nvidia في سوق أجهزة الذكاء الاصطناعي من خلال إعلانها عن نظام خادم الذكاء الاصطناعي الجديد Helios وشراكتها الكبيرة مع OpenAI.
في فعالية Advancing AI 2025 التي أقيمت في سان خوسيه في 12 يونيو، كشفت الرئيسة التنفيذية لـ AMD ليزا سو عن رؤية الشركة الشاملة لنظام بيئي مفتوح للذكاء الاصطناعي، مستعرضة ابتكارات الأجهزة الحالية والمستقبلية. وكان محور الحدث عرض Helios، البنية التحتية للذكاء الاصطناعي على مستوى الرف من الجيل القادم من AMD، والمقرر إطلاقها في عام 2026.
وقالت سو خلال العرض التقديمي: "لأول مرة، قمنا بتصميم كل جزء من الرف كنظام موحد. فكر في Helios كرف يعمل كمحرك حوسبة ضخم واحد".
سيتم تشغيل نظام Helios بواسطة وحدات معالجة الرسومات Instinct MI400 القادمة من AMD، والتي من المتوقع أن تقدم تحسينًا في الأداء يصل إلى 10 أضعاف لنماذج Mixture of Experts مقارنةً بمسرعات الجيل الحالي. ستحتوي هذه الشرائح على ذاكرة HBM4 بسعة 432 جيجابايت وعرض نطاق ترددي للذاكرة يبلغ 19.6 تيرابايت/ثانية، مما يجعلها منافسًا مباشرًا لمنصة Vera Rubin القادمة من Nvidia.
وفي تطور مهم في الصناعة، انضم الرئيس التنفيذي لـ OpenAI سام ألتمان إلى سو على المسرح ليعلن أن الشركة المطورة لـ ChatGPT ستعتمد أحدث شرائح AMD ضمن محفظتها الحاسوبية. وقال ألتمان: "عندما بدأتِ تخبرينني عن المواصفات لأول مرة، قلت لنفسي: هذا مستحيل، يبدو الأمر جنونيًا تمامًا. سيكون شيئًا مذهلاً".
وقد قدمت OpenAI ملاحظاتها خلال عملية تطوير وحدات معالجة الرسومات لدى AMD، وأكد ألتمان أنهم بالفعل يشغلون بعض أعباء العمل على MI300X وهم "متحمسون للغاية" لسلسلة MI400. وتمثل هذه الشراكة تحولًا ملحوظًا لـ OpenAI، التي اعتمدت في الأساس على وحدات معالجة الرسومات من Nvidia التي يتم شراؤها عبر مزودين مثل Microsoft وOracle وCoreWeave.
كما أطلقت AMD أيضًا وحدات معالجة الرسومات Instinct MI350 خلال الحدث، والتي ستكون متاحة في الربع الثالث من عام 2025. توفر هذه المسرعات زيادة في الحوسبة للذكاء الاصطناعي بمقدار 4 أضعاف مقارنة بالجيل السابق وتحسينًا يصل إلى 35 ضعفًا في أداء الاستدلال. وتتميز سلسلة MI350 بذاكرة HBM3E بسعة 288 جيجابايت وعرض نطاق ترددي 8 تيرابايت/ثانية، وتدعم أنواع بيانات FP4 وFP6 الجديدة المحسنة لأعباء عمل الذكاء الاصطناعي.
وعلى عكس نهج Nvidia المغلق، تركز AMD على المعايير المفتوحة وقابلية التشغيل البيني. وتستخدم الشركة تقنية الشبكات مفتوحة المصدر UALink في أنظمة الرفوف الخاصة بها، في مقابل تقنية NVLink المملوكة لـ Nvidia. وقالت سو: "مستقبل الذكاء الاصطناعي لن يُبنى بواسطة شركة واحدة أو في نظام بيئي مغلق. بل سيُشكّل من خلال التعاون المفتوح عبر الصناعة".
ورغم هذه الإعلانات الطموحة، أنهت أسهم AMD تعاملات اليوم بانخفاض 2.2% بعد الحدث، مما يشير إلى أن وول ستريت لا تزال متشككة بشأن قدرة الشركة على إحداث تغيير كبير في حصة Nvidia السوقية المقدرة بـ 90% في المدى القريب. ومع ذلك، ومع توقعات بتجاوز سوق شرائح الذكاء الاصطناعي حاجز 500 مليار دولار بحلول عام 2028، تضع AMD نفسها لنمو طويل الأمد في هذا القطاع سريع التوسع.