В събитие, което експертите по сигурността определят като повратен момент за киберсигурността, задвижвана от изкуствен интелект, Google обяви на 15 юли 2025 г., че AI агентът 'Big Sleep' успешно е предотвратил експлоатацията на критична уязвимост в SQLite, известна единствено на злонамерени актьори.
Уязвимостта, проследявана като CVE-2025-6965 с CVSS оценка 7.2, представлява дефект, свързан с корупция на паметта, който засяга всички версии на SQLite преди 3.50.2. Според поддръжниците на проекта SQLite: „Атакуващ, който може да инжектира произволни SQL заявки в дадено приложение, би могъл да предизвика препълване на цяло число, водещо до четене извън края на масив.“
Това, което прави случая забележителен, е, че AI системата на Google не само е открила уязвимостта, но и е предвидила нейното предстоящо експлоатиране. „Чрез комбинацията от разузнавателна информация за заплахи и Big Sleep Google успя реално да предвиди, че уязвимостта ще бъде използвана в най-скоро време, и успяхме да я неутрализираме предварително“, заяви Кент Уокър, президент по глобалните въпроси в Google и Alphabet.
Big Sleep представлява еволюция на AI възможностите за сигурност на Google, като е разработен в сътрудничество между Google DeepMind и Google Project Zero. Системата беше обявена за първи път през 2024 г. като Project Naptime, преди да се развие в сегашния си вид. През ноември 2024 г. тя откри първата си реална уязвимост, но това е първият случай, в който активно предотвратява опит за експлоатация.
Последствията от това събитие надхвърлят рамките на собствената инфраструктура за сигурност на Google. Компанията вече внедрява Big Sleep, за да подобри сигурността на широко използвани проекти с отворен код, което потенциално може да трансформира начина, по който се откриват и неутрализират уязвимости в интернет. Изследователите по сигурността отбелязват, че това представлява преход от реактивна към проактивна киберзащита, при която AI системите могат да идентифицират заплахи, преди те да се реализират.
„Тези агенти за киберсигурност са истинска промяна в играта, освобождавайки екипите по сигурността да се съсредоточат върху сложни заплахи и значително увеличавайки техния обхват и въздействие“, заявиха от Google в официалното си съобщение. Компанията публикува и бяла книга, в която описва подхода си към създаването на AI агенти, работещи под човешки надзор, като същевременно защитават поверителността и минимизират потенциалните рискове.