menu
close

AI agent Googlu zmařil zneužití kritické zranitelnosti v SQLite

AI agent Googlu s názvem 'Big Sleep' dosáhl významného milníku v oblasti kybernetické bezpečnosti, když odhalil a zabránil zneužití kritické zranitelnosti v SQLite (CVE-2025-6965) ještě předtím, než ji mohli využít hackeři. Systém, vyvinutý ve spolupráci týmů Google DeepMind a Project Zero, spojil znalosti o hrozbách s pokročilou detekcí zranitelností a dokázal předpovědět a zablokovat blížící se útok. Jde o první potvrzený případ, kdy AI agent přímo překazil pokus o zneužití zero-day zranitelnosti v reálném prostředí.
AI agent Googlu zmařil zneužití kritické zranitelnosti v SQLite

Odborníci na bezpečnost označují tento krok za přelomový okamžik pro kybernetickou bezpečnost poháněnou umělou inteligencí. Google dne 15. července 2025 oznámil, že jeho AI agent 'Big Sleep' úspěšně zabránil zneužití kritické zranitelnosti v SQLite, která byla do té doby známa pouze útočníkům.

Zranitelnost, evidovaná jako CVE-2025-6965 s CVSS skóre 7,2, představuje chybu v paměťové správě, která postihuje všechny verze SQLite před 3.50.2. Podle správců projektu SQLite: „Útočník, který dokáže do aplikace vložit libovolné SQL příkazy, může způsobit přetečení celého čísla, což může vést k přečtení dat mimo hranice pole.“

Výjimečnost tohoto případu spočívá v tom, že AI systém Googlu nejen zranitelnost odhalil, ale také předpověděl její bezprostřední zneužití. „Kombinací znalostí o hrozbách a systému Big Sleep jsme byli schopni předpovědět, že zranitelnost bude brzy využita, a podařilo se nám ji včas zablokovat,“ uvedl Kent Walker, prezident pro globální záležitosti ve společnostech Google a Alphabet.

Big Sleep představuje další vývoj bezpečnostních schopností AI od Googlu. Vyvíjen byl ve spolupráci týmů Google DeepMind a Google Project Zero. Systém byl poprvé představen v roce 2024 pod názvem Project Naptime, než se vyvinul do současné podoby. V listopadu 2024 objevil svou první zranitelnost v reálném světě, ale toto je poprvé, kdy aktivně zabránil pokusu o zneužití.

Důsledky přesahují rámec vlastní infrastruktury Googlu. Společnost nyní nasazuje Big Sleep k posílení bezpečnosti široce používaných open-source projektů, což může zásadně proměnit způsob detekce a mitigace zranitelností na internetu. Bezpečnostní experti upozorňují, že jde o posun od reaktivní k proaktivní obraně, kdy AI systémy dokážou identifikovat hrozby ještě před jejich zneužitím.

„Tito agenti pro kybernetickou bezpečnost mění pravidla hry – uvolňují ruce bezpečnostním týmům, aby se mohli věnovat složitějším hrozbám, a výrazně zvyšují jejich dosah a efektivitu,“ uvedl Google ve svém oznámení. Společnost zároveň zveřejnila odborný dokument popisující svůj přístup k vývoji AI agentů, kteří pracují pod dohledem člověka, chrání soukromí a minimalizují potenciální rizika.

Source:

Latest News