En lo que los expertos en seguridad califican como un momento decisivo para la ciberseguridad impulsada por IA, Google anunció el 15 de julio de 2025 que su agente de IA 'Big Sleep' logró impedir la explotación de una vulnerabilidad crítica en SQLite que solo era conocida por actores maliciosos.
La vulnerabilidad, identificada como CVE-2025-6965 y con una puntuación CVSS de 7,2, es un fallo de corrupción de memoria que afecta a todas las versiones de SQLite anteriores a la 3.50.2. Según los responsables del proyecto SQLite, "un atacante que consiga inyectar sentencias SQL arbitrarias en una aplicación podría provocar un desbordamiento de enteros que resultaría en una lectura fuera de los límites de un array".
Lo que hace especialmente relevante este caso es que el sistema de IA de Google no solo detectó la vulnerabilidad, sino que también predijo su explotación inminente. "Gracias a la combinación de inteligencia de amenazas y Big Sleep, Google pudo predecir que una vulnerabilidad iba a ser utilizada de forma inminente y conseguimos bloquearla antes de que ocurriera", explicó Kent Walker, presidente de Asuntos Globales de Google y Alphabet.
Big Sleep representa la evolución de las capacidades de seguridad de IA de Google, desarrollada en colaboración entre Google DeepMind y Google Project Zero. El sistema fue anunciado por primera vez en 2024 bajo el nombre de Project Naptime antes de evolucionar hasta su forma actual. En noviembre de 2024, descubrió su primera vulnerabilidad en el mundo real, pero esta es la primera vez que previene activamente un intento de explotación.
Las implicaciones van más allá de la propia infraestructura de seguridad de Google. La compañía está desplegando Big Sleep para ayudar a mejorar la seguridad de proyectos de código abierto ampliamente utilizados, lo que podría transformar la forma en que se detectan y mitigan vulnerabilidades en todo internet. Investigadores de seguridad señalan que esto supone un cambio de un enfoque reactivo a uno proactivo en la defensa cibernética, donde los sistemas de IA pueden identificar amenazas antes de que se materialicen.
"Estos agentes de ciberseguridad suponen un cambio radical, ya que liberan a los equipos de seguridad para que se centren en amenazas de alta complejidad, ampliando drásticamente su impacto y alcance", afirmó Google en su comunicado. La compañía también ha publicado un libro blanco en el que detalla su enfoque para construir agentes de IA que operan bajo supervisión humana, protegiendo la privacidad y mitigando riesgos potenciales.