In wat beveiligingsexperts een keerpunt voor AI-gedreven cyberbeveiliging noemen, maakte Google op 15 juli 2025 bekend dat zijn 'Big Sleep'-AI-agent met succes de uitbuiting heeft voorkomen van een kritieke SQLite-kwetsbaarheid die alleen bij kwaadwillenden bekend was.
De kwetsbaarheid, geregistreerd als CVE-2025-6965 met een CVSS-score van 7,2, is een geheugenfout die alle SQLite-versies vóór 3.50.2 treft. Volgens de beheerders van het SQLite-project geldt: "Een aanvaller die willekeurige SQL-instructies in een applicatie kan injecteren, zou een integer overflow kunnen veroorzaken, waardoor er buiten het bereik van een array gelezen wordt."
Wat deze zaak bijzonder maakt, is dat het AI-systeem van Google niet alleen de kwetsbaarheid detecteerde, maar ook het op handen zijnde misbruik ervan voorspelde. "Door de combinatie van dreigingsinformatie en Big Sleep kon Google daadwerkelijk voorspellen dat een kwetsbaarheid op het punt stond te worden misbruikt, en konden we dit vooraf afkappen," aldus Kent Walker, President Global Affairs bij Google en Alphabet.
Big Sleep vertegenwoordigt de evolutie van Google's AI-beveiligingsmogelijkheden en is ontwikkeld als een samenwerking tussen Google DeepMind en Google Project Zero. Het systeem werd in 2024 voor het eerst aangekondigd als Project Naptime en groeide daarna uit tot zijn huidige vorm. In november 2024 ontdekte het zijn eerste kwetsbaarheid in de praktijk, maar dit is de eerste keer dat het daadwerkelijk een poging tot uitbuiting heeft voorkomen.
De impact reikt verder dan alleen de beveiligingsinfrastructuur van Google. Het bedrijf zet Big Sleep nu in om de beveiliging van veelgebruikte open-sourceprojecten te verbeteren, wat mogelijk een revolutie teweegbrengt in de manier waarop kwetsbaarheden op internet worden opgespoord en aangepakt. Beveiligingsonderzoekers merken op dat dit een verschuiving betekent van reactieve naar proactieve cyberbeveiliging, waarbij AI-systemen bedreigingen kunnen identificeren voordat ze zich daadwerkelijk manifesteren.
"Deze cyberbeveiligingsagenten zijn een gamechanger: ze geven beveiligingsteams de ruimte om zich te richten op complexe dreigingen en vergroten hun impact en bereik aanzienlijk," aldus Google in de aankondiging. Het bedrijf heeft tevens een whitepaper gepubliceerd waarin het zijn aanpak uiteenzet voor het bouwen van AI-agenten die onder menselijk toezicht opereren, terwijl privacy wordt gewaarborgd en potentiële risico's worden beperkt.