I vad säkerhetsexperter beskriver som ett genombrott för AI-driven cybersäkerhet meddelade Google den 15 juli 2025 att deras AI-agent 'Big Sleep' framgångsrikt förhindrat utnyttjandet av en kritisk sårbarhet i SQLite som endast var känd av hotaktörer.
Sårbarheten, som spåras som CVE-2025-6965 och har ett CVSS-betyg på 7,2, är en minneskorruptionsbugg som påverkar alla versioner av SQLite före 3.50.2. Enligt SQLite-projektets underhållare kan "en angripare som kan injicera godtyckliga SQL-satser i en applikation potentiellt orsaka ett heltalsöverflöde som leder till läsning utanför en array".
Det som gör detta fall anmärkningsvärt är att Googles AI-system inte bara upptäckte sårbarheten, utan även förutsåg dess nära förestående utnyttjande. "Genom att kombinera hotinformation med Big Sleep kunde Google faktiskt förutse att en sårbarhet snart skulle utnyttjas, och vi lyckades stoppa det i förväg", säger Kent Walker, chef för globala affärer på Google och Alphabet.
Big Sleep representerar nästa steg i Googles AI-säkerhetskapacitet och har utvecklats genom ett samarbete mellan Google DeepMind och Google Project Zero. Systemet presenterades först 2024 under namnet Project Naptime innan det utvecklades till sin nuvarande form. I november 2024 upptäckte det sin första sårbarhet i verkligheten, men detta är första gången det aktivt har förhindrat ett exploitförsök.
Konsekvenserna sträcker sig bortom Googles egen säkerhetsinfrastruktur. Företaget rullar nu ut Big Sleep för att stärka säkerheten i populära open source-projekt, vilket potentiellt kan förändra hur sårbarheter upptäcks och hanteras på internet. Säkerhetsforskare menar att detta markerar ett skifte från reaktivt till proaktivt cybersäkerhetsförsvar, där AI-system kan identifiera hot innan de materialiseras.
"Dessa cybersäkerhetsagenter förändrar spelplanen, frigör säkerhetsteam så att de kan fokusera på mer komplexa hot och skalar deras effekt och räckvidd dramatiskt", skriver Google i sitt tillkännagivande. Företaget har även publicerat en vitbok som beskriver deras metod för att bygga AI-agenter som verkar under mänsklig övervakning, samtidigt som de skyddar integritet och minimerar potentiella risker.