تقوم AMD بخطوة جريئة لمنافسة هيمنة Nvidia في سوق عتاد الذكاء الاصطناعي من خلال إعلانها عن نظام خوادم Helios الجديد للذكاء الاصطناعي وشراكة مهمة مع OpenAI.
في فعالية Advancing AI 2025 التي أقيمت في سان خوسيه في 12 يونيو، كشفت الرئيسة التنفيذية لشركة AMD ليزا سو عن رؤية الشركة الشاملة لنظام بيئي مفتوح للذكاء الاصطناعي، واستعرضت ابتكارات الأجهزة الحالية والمستقبلية. وكان محور الحدث هو عرض Helios، البنية التحتية للذكاء الاصطناعي على مستوى الرفوف من الجيل القادم من AMD والمقرر إطلاقها في عام 2026.
وقالت سو خلال العرض: "لأول مرة، صممنا كل جزء من الرف كنظام موحد. فكر في Helios كرف يعمل كمحرك حوسبة ضخم واحد".
سيتم تشغيل نظام Helios بواسطة وحدات معالجة الرسومات Instinct MI400 Series القادمة من AMD، والتي من المتوقع أن توفر تحسينًا في الأداء يصل إلى عشرة أضعاف في عمليات الاستدلال على نماذج Mixture of Experts مقارنةً بمسرعات الجيل الحالي. وستتميز هذه الشرائح بذاكرة HBM4 بسعة 432 جيجابايت وعرض نطاق ترددي للذاكرة يصل إلى 19.6 تيرابايت/ثانية، ما يضعها في منافسة مباشرة مع منصة Vera Rubin القادمة من Nvidia.
وفي تطور مهم في القطاع، انضم الرئيس التنفيذي لشركة OpenAI سام ألتمان إلى سو على المسرح للإعلان عن أن مبتكر ChatGPT سيعتمد أحدث شرائح AMD ضمن محفظته الحوسبية. وعلق ألتمان قائلاً: "عندما بدأتِ تخبريني عن المواصفات لأول مرة، قلت في نفسي: هذا مستحيل، يبدو الأمر جنونيًا تمامًا. سيكون شيئًا مذهلًا".
وقدمت OpenAI ملاحظاتها أثناء عملية تطوير وحدات معالجة الرسومات لدى AMD، حيث أكد ألتمان أنهم بالفعل يشغلون بعض أحمال العمل على MI300X وهم "متحمسون للغاية" لسلسلة MI400. وتمثل هذه الشراكة تحولًا ملحوظًا لـ OpenAI، التي اعتمدت في الأساس على وحدات معالجة الرسومات من Nvidia التي تم شراؤها عبر مزودين مثل Microsoft وOracle وCoreWeave.
كما أطلقت AMD أيضًا وحدات معالجة الرسومات Instinct MI350 Series خلال الحدث، والتي ستكون متاحة في الربع الثالث من عام 2025. وتوفر هذه المسرعات زيادة في الحوسبة للذكاء الاصطناعي بمقدار أربعة أضعاف جيلًا بعد جيل، وتحسينًا يصل إلى 35 ضعفًا في أداء الاستدلال. وتتميز سلسلة MI350 بذاكرة HBM3E بسعة 288 جيجابايت وعرض نطاق ترددي 8 تيرابايت/ثانية، وتدعم أنواع بيانات FP4 وFP6 الجديدة المحسنة لتطبيقات الذكاء الاصطناعي.
وعلى عكس نهج Nvidia المغلق، تركز AMD على المعايير المفتوحة وقابلية التشغيل البيني. وتستخدم الشركة تقنية الشبكات مفتوحة المصدر UALink لأنظمة الرفوف الخاصة بها، في مقابل تقنية NVLink المملوكة لـ Nvidia. وقالت سو: "مستقبل الذكاء الاصطناعي لن يُبنى بواسطة شركة واحدة أو في نظام بيئي مغلق. بل سيتشكل من خلال التعاون المفتوح عبر القطاع".
ورغم هذه الإعلانات الطموحة، أنهت أسهم AMD تعاملاتها بانخفاض بنسبة 2.2% بعد الحدث، ما يشير إلى أن وول ستريت لا تزال متشككة في قدرة الشركة على إحداث تغيير كبير في حصة Nvidia السوقية المقدرة بـ 90% في المدى القريب. ومع ذلك، ومع توقع أن يتجاوز سوق شرائح الذكاء الاصطناعي 500 مليار دولار بحلول عام 2028، تضع AMD نفسها للنمو طويل الأمد في هذا القطاع سريع التوسع.