menu
close

تسارع التحول نحو التعلم العميق المصغر بفضل المسرّعات العصبية

يشهد قطاع الذكاء الاصطناعي تطوراً ملحوظاً من تطبيقات تعلم الآلة المصغر (TinyML) إلى تطبيقات التعلم العميق المصغر (TinyDL) الأكثر تقدماً على الأجهزة الطرفية ذات الموارد المحدودة. ويقود هذا التحول الابتكارات في وحدات معالجة الشبكات العصبية، وتقنيات تحسين النماذج، وأدوات التطوير المتخصصة. هذه التطورات تمكّن من تنفيذ تطبيقات ذكاء اصطناعي أكثر تعقيداً على المتحكمات الدقيقة في قطاعات الرعاية الصحية، ومراقبة العمليات الصناعية، والإلكترونيات الاستهلاكية.
تسارع التحول نحو التعلم العميق المصغر بفضل المسرّعات العصبية

يشهد مشهد الذكاء الاصطناعي المدمج تحولاً جذرياً مع انتقال المطورين من النماذج البسيطة لتعلم الآلة إلى نشر الشبكات العصبية العميقة المتقدمة على عتاد محدود الموارد بشكل كبير.

بينما ركز تعلم الآلة المصغر التقليدي (TinyML) على مهام الاستدلال الأساسية للمتحكمات الدقيقة، يمثل مفهوم التعلم العميق المصغر (TinyDL) نقلة نوعية في قدرات الحوسبة الطرفية. إن الانتشار الواسع للأجهزة المتصلة بالإنترنت، من أجهزة الاستشعار القابلة للارتداء إلى أنظمة المراقبة الصناعية، يتطلب ذكاء اصطناعي متطوراً بشكل متزايد على الجهاز نفسه. ويشكل نشر الخوارزميات المعقدة على هذه المنصات محدودة الموارد تحدياً كبيراً، مما يدفع إلى الابتكار في مجالات مثل ضغط النماذج وتطوير العتاد المتخصص. يتجه الباحثون اليوم إلى ما هو أبعد من نماذج تعلم الآلة البسيطة (TinyML) نحو نشر بنى "التعلم العميق المصغر" (TinyDL) الأقوى والأكثر كفاءة.

ويُمكّن هذا التحول عدد من التطورات التقنية الرئيسية. يرتكز جوهر TinyDL على تحسين النماذج. إذ تتطلب نماذج التعلم العميق، التي تكون عادة ضخمة وذات متطلبات حسابية عالية، تعديلات جوهرية لتناسب الأجهزة الطرفية. وتعد تقنيات مثل التكميم (Quantization)، التي تقلل من دقة التمثيل العددي داخل النموذج، أساسية في هذا المجال. فعلى سبيل المثال، تحويل الأرقام من صيغة الفاصلة العائمة 32-بت إلى أعداد صحيحة 8-بت يقلل بشكل كبير من حجم النموذج ومتطلبات المعالجة، مع احتمال فقدان بسيط في الدقة. كما يساهم التشذيب (Pruning)، أي إزالة الاتصالات الزائدة في الشبكة العصبية، في ضغط النموذج وتسريع أدائه.

ويُعد العتاد المخصص لتسريع الشبكات العصبية عاملاً محورياً في هذا التحول. فقد أطلقت شركة STMicroelectronics شريحة STM32N6، والتي تمثل خطوة متقدمة في تكنولوجيا المتحكمات الدقيقة، حيث تعد - بحسب الشركة - الأولى من نوعها التي تتضمن عتاداً مخصصاً لتسريع الذكاء الاصطناعي. ويمثل هذا نقطة تحول مهمة في تطور عتاد الذكاء الاصطناعي. وبالعودة إلى الوراء، هناك حدثان بارزان في هذا المجال: شريحة Apple A11 Bionic عام 2017، والتي كانت أول معالج تطبيقات يضم تسريعاً للذكاء الاصطناعي، ومعمارية Pascal من Nvidia عام 2016، التي أثبتت جدوى وحدات معالجة الرسوميات (GPU) في تطبيقات الذكاء الاصطناعي.

يضم مسرّع Neural-ART في شريحة STM32N6 الحالية ما يقارب 300 وحدة ضرب وتجميع قابلة للتهيئة، إضافة إلى ناقلَي ذاكرة AXI بعرض 64-بت، ما يوفر قدرة معالجة تصل إلى 600 مليار عملية في الثانية (GOPS). وهذا يعادل 600 ضعف ما يمكن تحقيقه على أسرع متحكم STM32H7 الذي لا يحتوي على وحدة معالجة عصبية. وتعد سلسلة STM32N6 من STMicroelectronics أقوى متحكمات الشركة حتى الآن، حيث صُممت للتعامل مع تطبيقات الذكاء الاصطناعي الطرفية المتطلبة. وتضم نواة Arm Cortex-M55 بسرعة 800 ميجاهرتز، ومسرّع Neural-ART بسرعة 1 جيجاهرتز، لتوفير قدرة معالجة تصل إلى 600 GOPS للاستدلال الفوري. ومع ذاكرة وصول عشوائي بسعة 4.2 ميجابايت ووحدة معالجة صور مدمجة، فهي مصممة لمهام الرؤية والصوت وإنترنت الأشياء الصناعي.

وتتطور أطر البرمجيات بالتوازي مع العتاد لدعم هذا التحول. توفر أطر تعلم الآلة المصغر (TinyML) بنية تحتية قوية وفعالة تتيح للمؤسسات والمطورين الاستفادة من بياناتهم ونشر الخوارزميات المتقدمة على الأجهزة الطرفية بكفاءة. وتقدم هذه الأطر مجموعة واسعة من الأدوات والموارد المصممة خصيصاً لدعم المبادرات الاستراتيجية في مجال تعلم الآلة المصغر. ومن أبرز هذه الأطر: TensorFlow Lite (TF Lite)، وEdge Impulse، وPyTorch Mobile، وuTensor، بالإضافة إلى منصات مثل STM32Cube.AI، وNanoEdgeAIStudio، وNXP eIQ، ومكتبة Microsoft Embedded Learning Library.

ومع نضوج هذه التقنية، من المتوقع أن نشهد تطبيقات ذكاء اصطناعي أكثر تطوراً تعمل مباشرة على الأجهزة الطرفية الصغيرة، مما يتيح حالات استخدام جديدة مع الحفاظ على الخصوصية، وتقليل زمن الاستجابة، وخفض استهلاك الطاقة. ويعد الانتقال إلى التعلم العميق المصغر (TinyDL) علامة فارقة في جعل الذكاء الاصطناعي المتقدم متاحاً في البيئات محدودة الموارد.

Source:

Latest News