Эксперты по безопасности называют это событие переломным моментом для кибербезопасности на базе искусственного интеллекта: 15 июля 2025 года Google объявила, что её ИИ-агент «Big Sleep» успешно предотвратил эксплуатацию критической уязвимости в SQLite, о которой знали только злоумышленники.
Уязвимость, получившая идентификатор CVE-2025-6965 и оценку 7,2 по шкале CVSS, представляет собой ошибку повреждения памяти, затрагивающую все версии SQLite до 3.50.2. Как отмечают сопровождающие проект SQLite: «Злоумышленник, способный внедрить произвольные SQL-запросы в приложение, может вызвать переполнение целого числа, что приведёт к чтению данных за пределами массива».
Уникальность этого случая заключается в том, что система ИИ Google не только обнаружила уязвимость, но и предсказала её скорую эксплуатацию. «Благодаря сочетанию анализа угроз и Big Sleep, Google смогла предсказать, что уязвимость вот-вот будет использована, и мы смогли заблокировать атаку заранее», — заявил Кент Уокер, президент по глобальным вопросам Google и Alphabet.
Big Sleep — это новая ступень развития ИИ-инструментов безопасности Google, созданная в сотрудничестве между Google DeepMind и Google Project Zero. Система была впервые анонсирована в 2024 году под названием Project Naptime, а затем эволюционировала в нынешний вид. В ноябре 2024 года она обнаружила свою первую уязвимость в реальных условиях, однако сейчас впервые смогла активно предотвратить попытку эксплуатации.
Значимость этого события выходит за рамки инфраструктуры безопасности самой Google. Компания уже внедряет Big Sleep для повышения защищённости популярных open-source проектов, что может радикально изменить способы обнаружения и устранения уязвимостей в интернете. По мнению исследователей, это знаменует переход от реактивной к проактивной киберзащите, когда ИИ способен выявлять угрозы ещё до их реализации.
«Такие кибербезопасностные агенты меняют правила игры, освобождая команды безопасности для работы со сложными угрозами и многократно увеличивая их эффективность», — говорится в заявлении Google. Компания также опубликовала white paper, в котором описывает свой подход к созданию ИИ-агентов, работающих под контролем человека, с учётом защиты приватности и минимизации рисков.