OpenAI ha publicado un informe exhaustivo titulado "Desbaratando usos maliciosos de la IA: junio de 2025", en el que revela cómo la empresa identificó y neutralizó 10 campañas maliciosas que explotaban sus sistemas de IA durante los primeros meses de 2025.
El informe detalla cómo actores respaldados por Estados de seis países —China, Rusia, Corea del Norte, Irán, Camboya y Filipinas— han estado utilizando ChatGPT y otras herramientas de IA para llevar a cabo estafas laborales, operaciones de influencia y campañas de spam. Cuatro de estas campañas se originaron en China, centrándose en la ingeniería social, operaciones de influencia encubierta y amenazas cibernéticas.
En una campaña denominada "Sneer Review", actores chinos inundaron plataformas sociales con comentarios críticos dirigidos a un juego de mesa taiwanés que incluía temas de resistencia contra el Partido Comunista Chino. Otra operación, "Helgoland Bite", implicó a actores rusos generando contenido en alemán que criticaba a Estados Unidos y la OTAN, intentando influir en las elecciones alemanas de 2025. Se observó a actores norcoreanos utilizando IA para producir en masa currículos falsos para puestos tecnológicos remotos, con el objetivo de obtener control sobre dispositivos corporativos entregados durante el proceso de incorporación.
Los equipos de seguridad de OpenAI emplearon la IA como multiplicador de fuerza en sus investigaciones, lo que les permitió detectar, interrumpir y exponer actividades abusivas, incluyendo ingeniería social, espionaje cibernético y esquemas laborales engañosos. Los sistemas de detección de la compañía identificaron comportamientos inusuales en todas las campañas, lo que llevó a la cancelación de cuentas y al intercambio de inteligencia con plataformas asociadas.
"Creemos que compartir información y la transparencia fomentan una mayor concienciación y preparación entre todas las partes interesadas, lo que conduce a una defensa colectiva más sólida frente a adversarios en constante evolución", afirmó OpenAI en su informe. Aunque la IA generativa no ha creado categorías de amenazas completamente nuevas, sí ha reducido significativamente las barreras técnicas para los actores maliciosos y ha incrementado la eficiencia de los ataques coordinados.
Expertos en seguridad subrayan que las organizaciones deben mantenerse alerta ante la adopción de grandes modelos de lenguaje por parte de los adversarios en sus operaciones y colaborar con la inteligencia en tiempo real compartida por empresas como OpenAI, Google, Meta y Anthropic para construir defensas colectivas más sólidas frente a estas amenazas en evolución.