أدى التكامل السريع للذكاء الاصطناعي في البنى التحتية الحيوية إلى خلق مشهد أمني مقلق، بحسب خبراء الأمن السيبراني الذين ظهروا في أحدث إصدار من نشرة منتدى المخاطر الصادرة في 17 مايو 2025.
يسلط تقرير التوقعات العالمية للأمن السيبراني لعام 2025 الصادر عن المنتدى الاقتصادي العالمي الضوء على أن 66% من المؤسسات تعتبر الذكاء الاصطناعي أكبر عامل تغيير في مجال الأمن السيبراني لهذا العام، إلا أن 37% فقط منها قامت بتطبيق تدابير لتقييم أدوات الذكاء الاصطناعي قبل نشرها. وقد أدى هذا التباين بين الوعي واتخاذ الإجراءات إلى خلق ثغرات كبيرة عبر مختلف الصناعات.
وحذّر متحدث باسم المركز الوطني للأمن السيبراني في المملكة المتحدة في تقريرهم الأخير قائلاً: "المؤسسات والأنظمة التي لا تواكب التهديدات المدعومة بالذكاء الاصطناعي معرضة لأن تصبح نقاط ضعف إضافية ضمن سلاسل التوريد، بسبب زيادة احتمالية تعرضها للثغرات والاستغلال اللاحق لها". ويتوقع المركز أنه بحلول عام 2027، سيواصل المهاجمون المدعومون بالذكاء الاصطناعي تقليص الوقت بين اكتشاف الثغرة واستغلالها، وهو وقت أصبح بالفعل لا يتعدى بضعة أيام.
ويشعر محترفو الأمن السيبراني بقلق خاص من هجمات حقن الأوامر ضد نماذج اللغة الكبيرة. ففي اختبار اختراق حديث أشار إليه باحثون في الأمن السيبراني، تم اختراق روبوت محادثة يعمل بالذكاء الاصطناعي في متجر شموع عبر هندسة الأوامر، مما خلق مخاطر أمنية وسلامة وتجارية. وقد سمح الهجوم باستخراج بيانات النظام والتلاعب بردود الروبوت، مما يوضح كيف يمكن أن تصبح تطبيقات الذكاء الاصطناعي البسيطة ظاهريًا مصدرًا لمخاطر أمنية جسيمة.
وتُعد ثغرات سلسلة التوريد مصدر قلق رئيسي آخر، حيث حدد 54% من المؤسسات الكبرى أنها العائق الأكبر أمام تحقيق المرونة السيبرانية. وقد أدى تعقيد سلاسل التوريد المتزايد، إلى جانب محدودية الرؤية على ممارسات الأمان لدى الموردين، إلى خلق بيئة يمكن فيها استغلال أنظمة الذكاء الاصطناعي عبر مكونات من أطراف ثالثة.
ومن المتوقع أن يُحدث ظهور الذكاء الاصطناعي الوكيل—أي الأنظمة القادرة على اتخاذ قرارات وتنفيذ مهام معقدة بشكل مستقل—تحولًا في مشهد التهديدات خلال عام 2025. وأوضح هاو يانغ، نائب رئيس الذكاء الاصطناعي في شركة Splunk التابعة لشركة Cisco: "في السابق، كنا نركز على مساعدين ذكيين يستجيبون لأوامر المستخدمين. أما الآن فننظر إلى أدوات ذكاء اصطناعي وكيلة قادرة على اتخاذ قرارات وتنفيذ مهام معقدة بشكل مستقل".
وينصح الخبراء المؤسسات بوضع سياسات رسمية لأمان الذكاء الاصطناعي، وإجراء نمذجة للتهديدات قبل النشر، وتقليص سطح الهجوم بشكل منهجي، وضمان أن لدى الموردين برامج نشطة لتحسين الأمان. كما أن التدريب المستمر لفرق الأمن السيبراني أمر ضروري مع تطور الهجمات المدعومة بالذكاء الاصطناعي بما يتجاوز آليات الدفاع التقليدية.
وكما أشار أحد الباحثين في الأمن السيبراني في منتدى المخاطر: "التحول لا يتعلق فقط بالدفاع ضد الهجمات المدعومة بالذكاء الاصطناعي—بل يتعلق بإدراك أن أنظمتنا الذكية نفسها أصبحت أهدافًا رئيسية".