menu
close

AI-агент Google запобіг експлуатації критичної вразливості SQLite

AI-агент Google під назвою 'Big Sleep' досяг значного прориву у сфері кібербезпеки, виявивши та запобігши експлуатації критичної вразливості SQLite (CVE-2025-6965) ще до того, як нею скористалися хакери. Розроблений у співпраці Google DeepMind та Project Zero, цей AI поєднав розвідку загроз із передовим виявленням вразливостей, щоб передбачити та заблокувати неминучу атаку. Це перший підтверджений випадок, коли AI-агент безпосередньо зірвав спробу експлуатації zero-day вразливості у реальному середовищі.
AI-агент Google запобіг експлуатації критичної вразливості SQLite

У події, яку експерти з безпеки називають переломним моментом для AI-орієнтованої кібербезпеки, Google 15 липня 2025 року оголосила, що її AI-агент 'Big Sleep' успішно запобіг експлуатації критичної вразливості в SQLite, про яку знали лише зловмисники.

Вразливість, що відстежується як CVE-2025-6965 із оцінкою CVSS 7.2, є помилкою пошкодження пам’яті, яка впливає на всі версії SQLite до 3.50.2. За словами розробників проєкту SQLite: «Зловмисник, який може впровадити довільні SQL-інструкції в додаток, може спричинити переповнення цілого числа, що призведе до читання за межами масиву».

Особливість цього випадку полягає в тому, що AI-система Google не лише виявила вразливість, а й передбачила її неминучу експлуатацію. «Завдяки поєднанню розвідки загроз і Big Sleep Google змогла фактично передбачити, що вразливість ось-ось буде використана, і ми змогли запобігти цьому заздалегідь», — зазначив Кент Вокер, президент із глобальних питань Google та Alphabet.

Big Sleep є еволюцією AI-можливостей Google у сфері безпеки, розробленою спільно Google DeepMind і Google Project Zero. Систему вперше анонсували у 2024 році під назвою Project Naptime, а згодом вона набула сучасного вигляду. У листопаді 2024 року вона виявила свою першу реальну вразливість, але саме зараз вперше активно запобігла спробі експлуатації.

Наслідки цієї події виходять за межі власної інфраструктури Google. Компанія вже розгортає Big Sleep для підвищення безпеки популярних open-source проєктів, що потенційно може змінити підходи до виявлення та усунення вразливостей в інтернеті. Дослідники з безпеки зазначають, що це означає перехід від реактивного до проактивного захисту, коли AI-системи здатні ідентифікувати загрози ще до їх появи.

«Ці агенти кібербезпеки змінюють правила гри, звільняючи команди безпеки для роботи з найскладнішими загрозами та суттєво розширюючи їхній вплив», — йдеться в оголошенні Google. Компанія також опублікувала white paper, у якому описала свій підхід до створення AI-агентів, які працюють під наглядом людини, захищаючи приватність і знижуючи потенційні ризики.

Source:

Latest News