menu
close

تسارع التحول نحو التعلم العميق المصغر بفضل المسرّعات العصبية

تشهد صناعة الذكاء الاصطناعي تطورًا ملحوظًا من التعلم الآلي المصغر (TinyML) إلى تطبيقات التعلم العميق المصغر (TinyDL) الأكثر تقدمًا على الأجهزة الطرفية ذات الموارد المحدودة. ويقود هذا التحول الابتكار في وحدات المعالجة العصبية، وتقنيات تحسين النماذج، وأدوات التطوير المتخصصة. هذه التطورات تمكّن من تطبيقات ذكاء اصطناعي أكثر تعقيدًا على المتحكمات الدقيقة في قطاعات الرعاية الصحية، ومراقبة العمليات الصناعية، والإلكترونيات الاستهلاكية.
تسارع التحول نحو التعلم العميق المصغر بفضل المسرّعات العصبية

يشهد مشهد الذكاء الاصطناعي المدمج تحولًا جذريًا مع انتقال المطورين من النماذج البسيطة للتعلم الآلي إلى نشر الشبكات العصبية العميقة المتقدمة على أجهزة ذات موارد محدودة للغاية.

بينما ركز التعلم الآلي المصغر (TinyML) التقليدي على مهام الاستدلال الأساسية للمتحكمات الدقيقة، يمثل ظهور مفهوم التعلم العميق المصغر (TinyDL) قفزة نوعية في قدرات الحوسبة الطرفية. إن انتشار الأجهزة المتصلة بالإنترنت، من الحساسات القابلة للارتداء إلى أجهزة المراقبة الصناعية، يتطلب ذكاءً اصطناعيًا متقدمًا متزايدًا على الجهاز نفسه. ويشكل نشر الخوارزميات المعقدة على هذه المنصات ذات الموارد المحدودة تحديات كبيرة، مما يدفع إلى الابتكار في مجالات مثل ضغط النماذج وتصميم العتاد المتخصص. يتجه الباحثون الآن إلى ما هو أبعد من نماذج التعلم الآلي البسيطة، المسماة "TinyML"، نحو نشر هياكل "التعلم العميق المصغر" (TinyDL) الأكثر قوة وصغرًا في الوقت ذاته.

ويُمكّن هذا التحول عدة تطورات تقنية رئيسية. يرتكز جوهر TinyDL على تحسين النماذج. فالنماذج العميقة عادةً ما تكون ضخمة وتستهلك موارد حسابية كبيرة، ما يتطلب تكييفًا كبيرًا لتعمل بكفاءة على الأجهزة الطرفية. وتعد تقنيات مثل التكميم، التي تقلل من دقة التمثيلات العددية داخل النموذج، أساسية في هذا المجال. فعلى سبيل المثال، تحويل الأرقام العائمة بدقة 32 بت إلى أعداد صحيحة بدقة 8 بت يقلل بشكل كبير من حجم النموذج ومتطلبات الحساب، وإن كان ذلك أحيانًا على حساب بعض الدقة. كما يساهم تقليم الشبكات العصبية، أي إزالة الاتصالات الزائدة بشكل منهجي، في ضغط وتسريع النماذج.

وأصبح العتاد المتخصص لتسريع العمليات العصبية عنصرًا محوريًا في هذا التحول. فقد كشفت شركة STMicroelectronics عن متحكم STM32N6، الذي يمثل خطوة كبيرة في تكنولوجيا المتحكمات الدقيقة، حيث يعد - بحسب الشركة - الأول من نوعه الذي يتضمن عتادًا مخصصًا لتسريع الذكاء الاصطناعي. ويمثل ذلك نقطة تحول مهمة في تطور عتاد الذكاء الاصطناعي. وإذا عدنا إلى الوراء، نجد حدثين رئيسيين في تطور عتاد الذكاء الاصطناعي: شريحة Apple A11 Bionic في 2017، أول معالج تطبيقات يتضمن تسريعًا للذكاء الاصطناعي، ومعمارية Pascal من Nvidia في 2016، التي أثبتت جدوى وحدات معالجة الرسومات (GPU) في تطبيقات الذكاء الاصطناعي.

يضم مسرّع Neural-ART في STM32N6 اليوم ما يقارب 300 وحدة ضرب وتجميع قابلة للتهيئة، وقناتي ذاكرة AXI 64-بت، ليحقق قدرة معالجة تصل إلى 600 مليار عملية في الثانية (GOPS). وهذا يعادل 600 ضعف ما يمكن تحقيقه على أسرع متحكم STM32H7 الذي لا يحتوي على وحدة معالجة عصبية. وتعد سلسلة STM32N6 من STMicroelectronics أقوى متحكم دقيق أنتجته الشركة حتى الآن، حيث صُممت للتعامل مع تطبيقات الذكاء الاصطناعي الطرفي المتطلبة. وتحتوي على نواة Arm Cortex-M55 بسرعة 800 ميجاهرتز، ومسرّع Neural-ART بسرعة 1 جيجاهرتز، لتوفر حتى 600 مليار عملية في الثانية للاستدلال الفوري. ومع ذاكرة RAM بسعة 4.2 ميجابايت ومعالج صور مخصص (ISP)، فهي مصممة لمهام الرؤية والصوت وإنترنت الأشياء الصناعي.

وتتطور أطر البرمجيات بالتوازي مع العتاد لدعم هذا التحول. توفر أطر TinyML بنية قوية وفعالة تتيح للمؤسسات والمطورين الاستفادة من بياناتهم ونشر الخوارزميات المتقدمة على الأجهزة الطرفية بكفاءة. وتقدم هذه الأطر مجموعة واسعة من الأدوات والموارد المصممة خصيصًا لدعم المبادرات الاستراتيجية في مجال التعلم الآلي المصغر. ومن أبرز هذه الأطر: TensorFlow Lite (TF Lite)، Edge Impulse، PyTorch Mobile، uTensor، ومنصات مثل STM32Cube.AI، NanoEdgeAIStudio، NXP eIQ، ومكتبة Microsoft Embedded Learning Library.

ومع نضوج هذه التقنية، من المتوقع أن نشهد تطبيقات ذكاء اصطناعي أكثر تطورًا تعمل مباشرةً على الأجهزة الطرفية الصغيرة، مما يفتح آفاقًا جديدة للاستخدام مع الحفاظ على الخصوصية، وتقليل زمن الاستجابة، وخفض استهلاك الطاقة. ويمثل الانتقال إلى التعلم العميق المصغر محطة مهمة في جعل الذكاء الاصطناعي المتقدم متاحًا في البيئات محدودة الموارد.

Source:

Latest News