Odborníci na bezpečnosť označujú tento krok za prelomový moment pre kybernetickú bezpečnosť poháňanú umelou inteligenciou. Google 15. júla 2025 oznámil, že jeho AI agent 'Big Sleep' úspešne zabránil zneužitiu kritickej zraniteľnosti v SQLite, ktorá bola dovtedy známa len útočníkom.
Zraniteľnosť evidovaná ako CVE-2025-6965 s CVSS skóre 7,2 je chyba spôsobujúca poškodenie pamäte, ktorá sa týka všetkých verzií SQLite pred 3.50.2. Podľa správcov projektu SQLite: „Útočník, ktorý dokáže do aplikácie vkladať ľubovoľné SQL príkazy, môže spôsobiť pretečenie celého čísla, čo vedie k čítaniu mimo hraníc poľa.“
Čo robí tento prípad výnimočným, je skutočnosť, že AI systém Googlu nielenže zraniteľnosť odhalil, ale aj predpovedal jej bezprostredné zneužitie. „Vďaka kombinácii spravodajských informácií o hrozbách a systému Big Sleep dokázal Google predpovedať, že zraniteľnosť bude čoskoro zneužitá, a podarilo sa nám tomu včas zabrániť,“ uviedol Kent Walker, prezident pre globálne záležitosti spoločností Google a Alphabet.
Big Sleep predstavuje ďalší vývoj bezpečnostných schopností AI od Googlu. Bol vyvinutý v spolupráci tímov Google DeepMind a Google Project Zero. Prvýkrát bol predstavený v roku 2024 pod názvom Project Naptime, neskôr sa vyvinul do súčasnej podoby. V novembri 2024 objavil svoju prvú zraniteľnosť v reálnom svete, no toto je prvýkrát, čo aktívne zabránil pokusu o zneužitie.
Dôsledky siahajú ďaleko za hranice infraštruktúry Googlu. Spoločnosť teraz nasadzuje Big Sleep na zlepšenie bezpečnosti široko používaných open-source projektov, čo môže zásadne zmeniť spôsob detekcie a riešenia zraniteľností na internete. Bezpečnostní výskumníci upozorňujú, že ide o posun od reaktívnej k proaktívnej obrane, kde AI systémy dokážu identifikovať hrozby ešte pred ich vznikom.
„Tieto kybernetické bezpečnostné agenty menia pravidlá hry – odbremeňujú bezpečnostné tímy, aby sa mohli sústrediť na komplexnejšie hrozby, a výrazne zvyšujú ich dosah a efektivitu,“ uviedol Google vo svojom oznámení. Spoločnosť zároveň zverejnila odborný dokument, v ktorom opisuje svoj prístup k vývoju AI agentov pracujúcich pod ľudským dohľadom, pričom kladie dôraz na ochranu súkromia a minimalizáciu potenciálnych rizík.