في ما وصفه خبراء الأمن بلحظة فارقة في مجال الأمن السيبراني المدعوم بالذكاء الاصطناعي، أعلنت جوجل في 15 يوليو 2025 أن وكيل الذكاء الاصطناعي الخاص بها 'Big Sleep' نجح في منع استغلال ثغرة حرجة في قاعدة بيانات SQLite كانت معروفة فقط لدى الجهات المهددة.
الثغرة، التي تحمل الرمز CVE-2025-6965 وتقييم خطورة (CVSS) يبلغ 7.2، هي خلل في إدارة الذاكرة يؤثر على جميع إصدارات SQLite قبل الإصدار 3.50.2. ووفقاً لمطوري مشروع SQLite: "قد يتمكن المهاجم الذي يستطيع حقن أوامر SQL عشوائية في أحد التطبيقات من التسبب في تجاوز عددي يؤدي إلى قراءة بيانات خارج حدود المصفوفة".
ما يجعل هذه الحالة مميزة هو أن نظام الذكاء الاصطناعي من جوجل لم يكتشف الثغرة فحسب، بل تنبأ أيضاً بقرب استغلالها. وقال كينت ووكر، رئيس الشؤون العالمية في جوجل وألفابت: "من خلال الجمع بين استخبارات التهديدات وBig Sleep، تمكنت جوجل فعلياً من التنبؤ بأن هناك ثغرة على وشك أن تُستغل، وتمكنا من إيقافها مسبقاً".
يمثل Big Sleep تطور قدرات جوجل في مجال أمن الذكاء الاصطناعي، حيث تم تطويره بالتعاون بين Google DeepMind وفريق Google Project Zero. وقد تم الإعلان عن النظام لأول مرة في عام 2024 تحت اسم Project Naptime قبل أن يتطور إلى شكله الحالي. وفي نوفمبر 2024، اكتشف أول ثغرة حقيقية في العالم، لكن هذه هي المرة الأولى التي يمنع فيها فعلياً محاولة استغلال.
وتتجاوز آثار هذا الإنجاز بنية جوجل الأمنية الداخلية، إذ بدأت الشركة في نشر Big Sleep للمساهمة في تعزيز أمان المشاريع مفتوحة المصدر واسعة الانتشار، ما قد يغير طريقة اكتشاف ومعالجة الثغرات عبر الإنترنت. ويشير باحثو الأمن إلى أن هذا يمثل تحولاً من الدفاع السيبراني التفاعلي إلى الدفاع الاستباقي، حيث يمكن للأنظمة الذكية تحديد التهديدات قبل ظهورها.
وقالت جوجل في إعلانها: "هذه الوكلاء السيبرانيون يغيرون قواعد اللعبة، إذ يتيحون لفرق الأمن التركيز على التهديدات المعقدة للغاية، ويوسعون نطاق تأثيرهم بشكل غير مسبوق". كما نشرت الشركة ورقة بيضاء توضح نهجها في بناء وكلاء ذكاء اصطناعي يعملون تحت إشراف بشري مع الحفاظ على الخصوصية وتقليل المخاطر المحتملة.