menu
close

Agent AI Google’a udaremnia próbę wykorzystania krytycznej luki w SQLite

Agent AI Google’a o nazwie „Big Sleep” osiągnął przełom w dziedzinie cyberbezpieczeństwa, wykrywając i uniemożliwiając wykorzystanie krytycznej luki w SQLite (CVE-2025-6965), zanim hakerzy zdążyli ją użyć. System, opracowany wspólnie przez Google DeepMind i Project Zero, połączył analizę zagrożeń z zaawansowanym wykrywaniem podatności, by przewidzieć i zablokować nadchodzący atak. To pierwszy potwierdzony przypadek, gdy agent AI bezpośrednio udaremnił próbę wykorzystania luki typu zero-day w środowisku produkcyjnym.
Agent AI Google’a udaremnia próbę wykorzystania krytycznej luki w SQLite

Wydarzenie, które eksperci ds. bezpieczeństwa określają mianem przełomowego dla cyberbezpieczeństwa opartego na AI, miało miejsce 15 lipca 2025 roku. Google ogłosiło wtedy, że jego agent AI „Big Sleep” skutecznie zapobiegł wykorzystaniu krytycznej luki w SQLite, znanej wyłącznie cyberprzestępcom.

Luka, oznaczona jako CVE-2025-6965 i oceniona na 7,2 w skali CVSS, to błąd związany z uszkodzeniem pamięci, występujący we wszystkich wersjach SQLite przed 3.50.2. Jak informują opiekunowie projektu SQLite, „Atakujący, który może wstrzyknąć dowolne polecenia SQL do aplikacji, może doprowadzić do przepełnienia licznika całkowitego, skutkującego odczytem poza końcem tablicy.”

Wyjątkowość tego przypadku polega na tym, że system AI Google nie tylko wykrył podatność, ale także przewidział jej nieuchronne wykorzystanie. „Dzięki połączeniu analizy zagrożeń i Big Sleep, Google było w stanie przewidzieć, że luka zostanie wkrótce wykorzystana, i zareagować, zanim do tego doszło” – powiedział Kent Walker, prezes ds. globalnych w Google i Alphabet.

Big Sleep to efekt rozwoju możliwości AI w zakresie bezpieczeństwa w Google, będący owocem współpracy Google DeepMind i Google Project Zero. System został po raz pierwszy zaprezentowany w 2024 roku jako Project Naptime, zanim przyjął obecną formę. W listopadzie 2024 roku Big Sleep wykrył swoją pierwszą podatność w rzeczywistych warunkach, jednak dopiero teraz po raz pierwszy aktywnie udaremnił próbę ataku.

Znaczenie tego osiągnięcia wykracza poza infrastrukturę Google. Firma wdraża obecnie Big Sleep, by poprawić bezpieczeństwo popularnych projektów open source, co może zrewolucjonizować sposób wykrywania i łagodzenia podatności w internecie. Zdaniem ekspertów, to początek przejścia od reaktywnej do proaktywnej ochrony, gdzie systemy AI wykrywają zagrożenia, zanim się zmaterializują.

„Tacy agenci cyberbezpieczeństwa zmieniają zasady gry, odciążając zespoły bezpieczeństwa od rutynowych zagrożeń i pozwalając im skupić się na bardziej złożonych atakach, znacząco zwiększając skalę i skuteczność działań” – podkreśliło Google w swoim komunikacie. Firma opublikowała także dokument opisujący podejście do budowy agentów AI działających pod nadzorem człowieka, z poszanowaniem prywatności i minimalizacją potencjalnych ryzyk.

Source:

Latest News