menu
close

جوجل تحدد «الثلاثي القاتل» الذي يهدد أمان وكلاء الذكاء الاصطناعي

نشر باحثو جوجل سانتياغو دياز، كريستوف كيرن، وكارا أوليف بحثاً رائداً حول ثغرات أمان وكلاء الذكاء الاصطناعي. حددت ورقتهم البحثية في يونيو 2025 نمطاً أمنياً بالغ الخطورة أطلقوا عليه اسم «الثلاثي القاتل»: وهو الجمع الخطير بين الوصول إلى البيانات الخاصة، والتعرض لمحتوى غير موثوق، وقدرات التواصل الخارجي. يوفر هذا البحث رؤى مهمة لتعزيز حماية أنظمة الذكاء الاصطناعي ذاتية العمل بشكل متزايد ضد هجمات حقن الأوامر وتسريب البيانات.
جوجل تحدد «الثلاثي القاتل» الذي يهدد أمان وكلاء الذكاء الاصطناعي

في تطور مهم لمجال أمان الذكاء الاصطناعي، تمكن باحثو جوجل من تحديد نمط ثغرة أساسي يهدد سلامة أنظمة وكلاء الذكاء الاصطناعي.

في 15 يونيو 2025، نشرت وحدة الأمان في جوجل ورقة بحثية بعنوان «مقدمة حول نهج جوجل لأمان وكلاء الذكاء الاصطناعي»، من إعداد سانتياغو دياز، كريستوف كيرن، وكارا أوليف. تستعرض الورقة الإطار الطموح لجوجل لتأمين وكلاء الذكاء الاصطناعي، الذين يُعرَّفون بأنهم «أنظمة ذكاء اصطناعي مصممة لاستشعار بيئتها، واتخاذ القرارات، وتنفيذ إجراءات مستقلة لتحقيق أهداف يحددها المستخدم».

يسلط البحث الضوء على مصدرين رئيسيين للقلق الأمني: التصرفات غير المرغوب فيها (السلوكيات الضارة أو المخالفة للسياسات) وكشف البيانات الحساسة (الإفصاح غير المصرح به عن معلومات خاصة). ولمعالجة هذه المخاطر، توصي جوجل باستراتيجية هجينة تعتمد على الدفاع متعدد الطبقات، تجمع بين الضوابط الأمنية التقليدية والدفاعات الديناميكية المعتمدة على الاستدلال.

تبع ذلك نشر ورقة بحثية ذات صلة في 16 يونيو 2025، قدمت مفهوم «الثلاثي القاتل» لوكلاء الذكاء الاصطناعي – وهو مزيج خطير من ثلاث قدرات تخلق ثغرات أمنية شديدة: الوصول إلى البيانات الخاصة، والتعرض لمحتوى غير موثوق، وإمكانية التواصل الخارجي. عند اجتماع هذه العناصر الثلاثة في نظام ذكاء اصطناعي، يمكن للمهاجمين خداع الوكيل للوصول إلى معلومات حساسة وتسريبها.

أكد الباحث الأمني سيمون ويليسون، الذي صاغ مصطلح «حقن الأوامر» قبل عدة سنوات، على أهمية فهم هذا النمط من الثغرات. وقال ويليسون في تحليله لبحث جوجل: «إذا جمع وكيلك بين هذه الميزات الثلاث، يمكن للمهاجم بسهولة خداعه للوصول إلى بياناتك الخاصة وإرسالها إليه».

يأتي توقيت هذا البحث في غاية الأهمية مع تزايد استقلالية وكلاء الذكاء الاصطناعي ووصولهم إلى أنظمة حساسة. فقد واجهت شركات تقنية كبرى مثل مايكروسوفت وجوجل وأنثروبيك مشكلات أمنية مماثلة في منتجات الذكاء الاصطناعي الخاصة بها خلال العامين الماضيين، مع توثيق عشرات الهجمات التي استهدفت أنظمة مثل ChatGPT وMicrosoft Copilot وGoogle Bard.

تقترح أبحاث جوجل ثلاثة مبادئ أساسية لأمان الوكلاء: يجب أن يكون لكل وكيل مشرف بشري محدد بوضوح، ويجب تقييد صلاحياته بعناية، كما يجب أن تكون تصرفاته وخططه قابلة للرصد. تقدم هذه الإرشادات إطار عمل قيماً للمطورين والمؤسسات التي تطبق أنظمة وكلاء الذكاء الاصطناعي أثناء تعاملها مع مشهد أمني معقد لوكلاء الذكاء الاصطناعي المستقلين بشكل متزايد.

Source:

Latest News