menu
close

جوجل تحدد «الثلاثي القاتل» الذي يهدد أمان وكلاء الذكاء الاصطناعي

نشر باحثو جوجل سانتياغو دياز، كريستوف كيرن، وكارا أوليف بحثًا رائدًا حول ثغرات أمان وكلاء الذكاء الاصطناعي. وحدد بحثهم في يونيو 2025 نمطًا أمنيًا بالغ الخطورة أطلقوا عليه اسم «الثلاثي القاتل»: وهو الجمع الخطير بين الوصول إلى البيانات الخاصة، والتعرض لمحتوى غير موثوق، والقدرة على التواصل الخارجي. يوفر هذا البحث رؤى حاسمة لتعزيز أمان الأنظمة الذكية الذاتية ضد هجمات حقن التعليمات وسرقة البيانات.
جوجل تحدد «الثلاثي القاتل» الذي يهدد أمان وكلاء الذكاء الاصطناعي

في تقدم مهم في مجال أمان الذكاء الاصطناعي، حدد باحثو جوجل نمط ثغرة أساسي يهدد سلامة أنظمة وكلاء الذكاء الاصطناعي.

في 15 يونيو 2025، نشرت فريق أمان جوجل ورقة بحثية بعنوان «مقدمة في نهج جوجل لأمان وكلاء الذكاء الاصطناعي»، من تأليف سانتياغو دياز، كريستوف كيرن، وكارا أوليف. تستعرض الورقة الإطار الطموح لجوجل لتأمين وكلاء الذكاء الاصطناعي، الذين يُعرَّفون بأنهم «أنظمة ذكاء اصطناعي مصممة لاستشعار بيئتها، واتخاذ القرارات، وتنفيذ إجراءات ذاتية لتحقيق أهداف يحددها المستخدم».

يسلط البحث الضوء على مصدرين رئيسيين للمخاطر الأمنية: التصرفات المارقة (السلوكيات غير المقصودة أو الضارة أو المخالفة للسياسات) وكشف البيانات الحساسة (الإفصاح غير المصرح به عن معلومات خاصة). ولمعالجة هذه المخاطر، توصي جوجل باتباع استراتيجية هجينة تعتمد على الدفاع متعدد الطبقات، تجمع بين الضوابط الأمنية التقليدية والدفاعات الديناميكية المعتمدة على الاستدلال.

تبع ذلك نشر ورقة بحثية ذات صلة في 16 يونيو 2025، قدمت مفهوم «الثلاثي القاتل» لوكلاء الذكاء الاصطناعي - وهو الجمع الخطير بين ثلاث قدرات تخلق ثغرات أمنية خطيرة: الوصول إلى البيانات الخاصة، التعرض لمحتوى غير موثوق، والقدرة على التواصل الخارجي. عند اجتماع هذه العناصر الثلاثة في نظام ذكاء اصطناعي، يمكن للمهاجمين خداع الوكيل للوصول إلى معلومات حساسة وتسريبها.

أكد الباحث الأمني سايمون ويليسون، الذي صاغ مصطلح «حقن التعليمات» قبل عدة سنوات، على أهمية فهم هذا النمط من الثغرات. وقال ويليسون في تحليله لبحث جوجل: «إذا كان وكيلك يجمع بين هذه الميزات الثلاث، يمكن للمهاجم بسهولة خداعه للوصول إلى بياناتك الخاصة وإرسالها إلى ذلك المهاجم».

تأتي أهمية هذا البحث في وقت تزداد فيه استقلالية وكلاء الذكاء الاصطناعي ووصولهم إلى أنظمة حساسة. فقد واجهت شركات تقنية كبرى مثل مايكروسوفت وجوجل وأنثروبيك مشكلات أمنية مماثلة في منتجات الذكاء الاصطناعي الخاصة بها خلال العامين الماضيين، مع توثيق عشرات هجمات تسريب البيانات التي أثرت على أنظمة مثل ChatGPT وMicrosoft Copilot وGoogle Bard.

تقترح أبحاث جوجل ثلاثة مبادئ أساسية لأمان الوكلاء: يجب أن يكون لكل وكيل متحكم بشري محدد بوضوح، ويجب تقييد صلاحياته بعناية، كما يجب أن تكون أفعاله وخططه قابلة للرصد. تقدم هذه الإرشادات إطارًا قيمًا للمطورين والمؤسسات التي تنفذ أنظمة وكلاء الذكاء الاصطناعي أثناء تعاملها مع مشهد أمني متغير يتسم بازدياد استقلالية الذكاء الاصطناعي.

Source:

Latest News