في ما وصفه خبراء الأمن بلحظة فارقة في مجال الأمن السيبراني المدعوم بالذكاء الاصطناعي، أعلنت جوجل في 15 يوليو 2025 أن وكيل الذكاء الاصطناعي الخاص بها "Big Sleep" نجح في منع استغلال ثغرة حرجة في قاعدة بيانات SQLite لم تكن معروفة سوى لجهات التهديد.
الثغرة، التي تحمل الرقم CVE-2025-6965 وتقييم خطورة CVSS يبلغ 7.2، هي خلل في إدارة الذاكرة يؤثر على جميع إصدارات SQLite قبل الإصدار 3.50.2. ووفقًا لمطوري مشروع SQLite، "قد يتمكن المهاجم الذي يستطيع حقن أوامر SQL عشوائية في أحد التطبيقات من التسبب في تجاوز سعة عدد صحيح، مما يؤدي إلى قراءة خارج حدود مصفوفة".
ما يجعل هذه الحالة استثنائية هو أن نظام الذكاء الاصطناعي من جوجل لم يكتشف الثغرة فحسب، بل تنبأ أيضًا بقرب استغلالها. وقال كينت ووكر، رئيس الشؤون العالمية في جوجل وألفابت: "من خلال الجمع بين استخبارات التهديدات ونظام Big Sleep، تمكنت جوجل فعليًا من التنبؤ بأن هناك ثغرة سيتم استغلالها قريبًا، واستطعنا إيقافها مسبقًا".
يمثل Big Sleep تطورًا في قدرات جوجل الأمنية المعتمدة على الذكاء الاصطناعي، حيث تم تطويره بالتعاون بين Google DeepMind وفريق Google Project Zero. وقد تم الإعلان عن النظام لأول مرة في عام 2024 تحت اسم Project Naptime قبل أن يتطور إلى شكله الحالي. وفي نوفمبر 2024، اكتشف أول ثغرة في العالم الواقعي، لكن هذه هي المرة الأولى التي يمنع فيها محاولة استغلال بشكل نشط.
وتتجاوز تداعيات هذا الإنجاز البنية التحتية الأمنية لجوجل نفسها، إذ بدأت الشركة في نشر Big Sleep للمساهمة في تعزيز أمان المشاريع مفتوحة المصدر واسعة الانتشار، مما قد يغير طريقة اكتشاف الثغرات ومعالجتها على مستوى الإنترنت. ويشير باحثو الأمن إلى أن ذلك يمثل تحولًا من الدفاع التفاعلي إلى الدفاع الاستباقي، حيث يمكن للأنظمة الذكية تحديد التهديدات قبل أن تتحقق.
وقالت جوجل في إعلانها: "هذه الوكلاء السيبرانيون يغيرون قواعد اللعبة، حيث يتيحون لفرق الأمن التركيز على التهديدات المعقدة للغاية، ويوسعون بشكل كبير نطاق تأثيرهم ووصولهم". كما نشرت الشركة ورقة بحثية تشرح منهجيتها في بناء وكلاء ذكاء اصطناعي يعملون تحت إشراف بشري مع الحفاظ على الخصوصية وتقليل المخاطر المحتملة.