menu
close

اتساع فجوات أمان الذكاء الاصطناعي مع تطور الهجمات في عام 2025

تكشف نتائج حديثة عن استغلال ثغرات خطيرة في أمان الذكاء الاصطناعي بمعدلات غير مسبوقة، في ظل معاناة المؤسسات من تطبيق تدابير الحماية الكافية. ويحذر المركز الوطني للأمن السيبراني في المملكة المتحدة من أن المهاجمين المدعومين بالذكاء الاصطناعي سيقلصون بشكل أكبر جداول استغلال الثغرات بحلول عام 2027، بينما لا تملك سوى 37% من المؤسسات بروتوكولات تقييم أمان الذكاء الاصطناعي المناسبة. وتظل ثغرات سلسلة التوريد وهجمات الحقن السريع من أبرز المخاوف مع تسارع تبني الذكاء الاصطناعي في مختلف القطاعات.
اتساع فجوات أمان الذكاء الاصطناعي مع تطور الهجمات في عام 2025

أدى التكامل السريع للذكاء الاصطناعي في البنية التحتية الحيوية إلى خلق مشهد أمني مقلق، بحسب خبراء الأمن السيبراني الذين تم تسليط الضوء على آرائهم في أحدث إصدار من نشرة منتدى المخاطر الصادر في 17 مايو 2025.

ويبرز تقرير التوقعات العالمية للأمن السيبراني 2025 الصادر عن المنتدى الاقتصادي العالمي أن 66% من المؤسسات تعتبر الذكاء الاصطناعي أكبر عامل تغيير في مجال الأمن السيبراني لهذا العام، إلا أن 37% فقط منها طبقت تدابير لتقييم أدوات الذكاء الاصطناعي قبل استخدامها. وقد أدى هذا التباين بين الوعي واتخاذ الإجراءات إلى خلق ثغرات كبيرة في مختلف القطاعات.

وحذر متحدث باسم المركز الوطني للأمن السيبراني في المملكة المتحدة في تقريره الأخير قائلاً: "المؤسسات والأنظمة التي لا تواكب التهديدات المدعومة بالذكاء الاصطناعي معرضة لأن تصبح نقاط ضعف إضافية في سلاسل التوريد، نظراً لازدياد احتمالية تعرضها للثغرات والاستغلال اللاحق". ويتوقع المركز أنه بحلول عام 2027 سيقلص المهاجمون المدعومون بالذكاء الاصطناعي الفترة الزمنية بين اكتشاف الثغرة واستغلالها، وهي فترة تقلصت بالفعل إلى أيام معدودة.

ويشعر خبراء الأمن السيبراني بقلق خاص من هجمات الحقن السريع ضد نماذج اللغة الكبيرة. ففي اختبار اختراق حديث أشار إليه باحثون في الأمن السيبراني، تم اختراق روبوت دردشة يعمل بالذكاء الاصطناعي لمتجر شموع عبر هندسة الأوامر، مما تسبب في مخاطر أمنية وسلامة وتجارية. وقد أتاح الهجوم استخراج بيانات النظام والتلاعب بردود الروبوت، مما يوضح كيف يمكن أن تتحول تطبيقات الذكاء الاصطناعي البسيطة ظاهرياً إلى ثغرات أمنية خطيرة.

وتعد ثغرات سلسلة التوريد مصدر قلق رئيسي آخر، حيث حددت 54% من المؤسسات الكبرى هذه الثغرات كأكبر عائق أمام تحقيق المرونة السيبرانية. وقد أدى تعقيد سلاسل التوريد المتزايد، إلى جانب محدودية الرؤية حول ممارسات الأمان لدى الموردين، إلى بيئة يمكن فيها استغلال أنظمة الذكاء الاصطناعي عبر مكونات الطرف الثالث.

ومن المتوقع أن يؤدي ظهور الذكاء الاصطناعي الوكيل—أي الأنظمة القادرة على اتخاذ قرارات وتنفيذ مهام معقدة بشكل مستقل—إلى تغيير مشهد التهديدات في عام 2025. وشرح هاو يانغ، نائب رئيس الذكاء الاصطناعي في شركة سبلانك التابعة لسيسكو: "في السابق، كنا نركز على مساعدين ذكيين يستجيبون لأوامر المستخدمين. أما الآن فننظر إلى أدوات ذكاء اصطناعي قادرة على اتخاذ قرارات وتنفيذ مهام معقدة بشكل مستقل".

وينصح الخبراء المؤسسات بوضع سياسات رسمية لأمان الذكاء الاصطناعي، وإجراء نمذجة للتهديدات قبل النشر، وتقليص سطح الهجوم بشكل منهجي، وضمان أن لدى الموردين برامج نشطة لتحسين الأمان. كما أن التدريب المستمر لفرق الأمن السيبراني أمر أساسي مع تطور الهجمات المدعومة بالذكاء الاصطناعي بما يتجاوز آليات الدفاع التقليدية.

وكما أشار أحد الباحثين في الأمن السيبراني في منتدى المخاطر: "التحول لا يتعلق فقط بالدفاع ضد هجمات مدعومة بالذكاء الاصطناعي—بل يدور حول إدراك أن أنظمتنا الذكية نفسها أصبحت أهدافاً رئيسية".

Source: Seclists.org

Latest News