In quello che gli esperti di sicurezza definiscono un momento spartiacque per la cybersecurity alimentata dall'intelligenza artificiale, Google ha annunciato il 15 luglio 2025 che il suo agente AI 'Big Sleep' ha impedito con successo lo sfruttamento di una vulnerabilità critica in SQLite, nota soltanto agli attori delle minacce.
La vulnerabilità, identificata come CVE-2025-6965 con un punteggio CVSS di 7.2, è un difetto di corruzione della memoria che interessa tutte le versioni di SQLite precedenti alla 3.50.2. Secondo i manutentori del progetto SQLite, "Un attaccante che riesca a iniettare istruzioni SQL arbitrarie in un'applicazione potrebbe provocare un overflow di interi che porta a una lettura oltre la fine di un array."
Ciò che rende questo caso particolarmente rilevante è il fatto che il sistema AI di Google non solo ha rilevato la vulnerabilità, ma ne ha anche previsto lo sfruttamento imminente. "Attraverso la combinazione di intelligence sulle minacce e Big Sleep, Google è stata in grado di prevedere che una vulnerabilità sarebbe stata sfruttata a breve e siamo riusciti a bloccarla in anticipo," ha dichiarato Kent Walker, Presidente degli Affari Globali di Google e Alphabet.
Big Sleep rappresenta l'evoluzione delle capacità di sicurezza AI di Google, essendo stato sviluppato grazie alla collaborazione tra Google DeepMind e Google Project Zero. Il sistema è stato annunciato per la prima volta nel 2024 come Project Naptime, prima di evolversi nella sua forma attuale. Nel novembre 2024 ha scoperto la sua prima vulnerabilità reale, ma questa è la prima volta che previene attivamente un tentativo di exploit.
Le implicazioni vanno oltre l'infrastruttura di sicurezza di Google. L'azienda sta ora implementando Big Sleep per migliorare la sicurezza di progetti open source ampiamente utilizzati, con il potenziale di trasformare il modo in cui le vulnerabilità vengono rilevate e mitigate su Internet. I ricercatori di sicurezza sottolineano che ciò rappresenta un passaggio da una difesa reattiva a una proattiva, in cui i sistemi AI possono identificare le minacce prima che si concretizzino.
"Questi agenti di cybersecurity cambiano le regole del gioco, liberando i team di sicurezza per concentrarsi su minacce di maggiore complessità e ampliando notevolmente il loro impatto e la loro portata," ha dichiarato Google nel suo annuncio. L'azienda ha inoltre pubblicato un white paper che illustra il proprio approccio alla costruzione di agenti AI che operano sotto supervisione umana, tutelando la privacy e mitigando i rischi potenziali.