menu
close

اتساع فجوات أمان الذكاء الاصطناعي مع تطور الهجمات في عام 2025

تكشف نتائج حديثة عن استغلال ثغرات أمنية حرجة في الذكاء الاصطناعي بمعدلات غير مسبوقة، في ظل معاناة المؤسسات من تطبيق تدابير حماية كافية. ويحذر المركز الوطني للأمن السيبراني في المملكة المتحدة من أن المهاجمين المدعومين بالذكاء الاصطناعي سيقلصون بشكل أكبر من الفترات الزمنية بين اكتشاف الثغرات واستغلالها بحلول عام 2027، في حين أن 37% فقط من المؤسسات لديها بروتوكولات تقييم أمان الذكاء الاصطناعي المناسبة. وتظل ثغرات سلسلة التوريد وهجمات حقن الأوامر من أبرز المخاوف مع تسارع تبني الذكاء الاصطناعي في مختلف القطاعات.
اتساع فجوات أمان الذكاء الاصطناعي مع تطور الهجمات في عام 2025

أدى التكامل السريع للذكاء الاصطناعي في البنى التحتية الحيوية إلى خلق مشهد أمني مقلق، بحسب خبراء الأمن السيبراني الذين ظهروا في أحدث إصدار من نشرة منتدى المخاطر الصادرة في 17 مايو 2025.

يسلط تقرير التوقعات العالمية للأمن السيبراني لعام 2025 الصادر عن المنتدى الاقتصادي العالمي الضوء على أن 66% من المؤسسات تعتبر الذكاء الاصطناعي أكبر عامل تغيير في مجال الأمن السيبراني لهذا العام، إلا أن 37% فقط منها قامت بتطبيق تدابير لتقييم أدوات الذكاء الاصطناعي قبل نشرها. وقد أدى هذا التباين بين الوعي واتخاذ الإجراءات إلى خلق ثغرات كبيرة عبر مختلف الصناعات.

وحذّر متحدث باسم المركز الوطني للأمن السيبراني في المملكة المتحدة في تقريرهم الأخير قائلاً: "المؤسسات والأنظمة التي لا تواكب التهديدات المدعومة بالذكاء الاصطناعي معرضة لأن تصبح نقاط ضعف إضافية ضمن سلاسل التوريد، بسبب زيادة احتمالية تعرضها للثغرات والاستغلال اللاحق لها". ويتوقع المركز أنه بحلول عام 2027، سيواصل المهاجمون المدعومون بالذكاء الاصطناعي تقليص الوقت بين اكتشاف الثغرة واستغلالها، وهو وقت أصبح بالفعل لا يتعدى بضعة أيام.

ويشعر محترفو الأمن السيبراني بقلق خاص من هجمات حقن الأوامر ضد نماذج اللغة الكبيرة. ففي اختبار اختراق حديث أشار إليه باحثون في الأمن السيبراني، تم اختراق روبوت محادثة يعمل بالذكاء الاصطناعي في متجر شموع عبر هندسة الأوامر، مما خلق مخاطر أمنية وسلامة وتجارية. وقد سمح الهجوم باستخراج بيانات النظام والتلاعب بردود الروبوت، مما يوضح كيف يمكن أن تصبح تطبيقات الذكاء الاصطناعي البسيطة ظاهريًا مصدرًا لمخاطر أمنية جسيمة.

وتُعد ثغرات سلسلة التوريد مصدر قلق رئيسي آخر، حيث حدد 54% من المؤسسات الكبرى أنها العائق الأكبر أمام تحقيق المرونة السيبرانية. وقد أدى تعقيد سلاسل التوريد المتزايد، إلى جانب محدودية الرؤية على ممارسات الأمان لدى الموردين، إلى خلق بيئة يمكن فيها استغلال أنظمة الذكاء الاصطناعي عبر مكونات من أطراف ثالثة.

ومن المتوقع أن يُحدث ظهور الذكاء الاصطناعي الوكيل—أي الأنظمة القادرة على اتخاذ قرارات وتنفيذ مهام معقدة بشكل مستقل—تحولًا في مشهد التهديدات خلال عام 2025. وأوضح هاو يانغ، نائب رئيس الذكاء الاصطناعي في شركة Splunk التابعة لشركة Cisco: "في السابق، كنا نركز على مساعدين ذكيين يستجيبون لأوامر المستخدمين. أما الآن فننظر إلى أدوات ذكاء اصطناعي وكيلة قادرة على اتخاذ قرارات وتنفيذ مهام معقدة بشكل مستقل".

وينصح الخبراء المؤسسات بوضع سياسات رسمية لأمان الذكاء الاصطناعي، وإجراء نمذجة للتهديدات قبل النشر، وتقليص سطح الهجوم بشكل منهجي، وضمان أن لدى الموردين برامج نشطة لتحسين الأمان. كما أن التدريب المستمر لفرق الأمن السيبراني أمر ضروري مع تطور الهجمات المدعومة بالذكاء الاصطناعي بما يتجاوز آليات الدفاع التقليدية.

وكما أشار أحد الباحثين في الأمن السيبراني في منتدى المخاطر: "التحول لا يتعلق فقط بالدفاع ضد الهجمات المدعومة بالذكاء الاصطناعي—بل يتعلق بإدراك أن أنظمتنا الذكية نفسها أصبحت أهدافًا رئيسية".

Source: Seclists.org

Latest News