OpenAI ha publicado un informe exhaustivo titulado "Desarticulando usos maliciosos de la IA: junio de 2025", en el que revela cómo la empresa identificó y neutralizó 10 campañas maliciosas que explotaron sus sistemas de inteligencia artificial durante los primeros meses de 2025.
El informe detalla cómo actores respaldados por el Estado de seis países—China, Rusia, Corea del Norte, Irán, Camboya y Filipinas—han estado utilizando ChatGPT y otras herramientas de IA para llevar a cabo estafas laborales, operaciones de influencia y campañas de spam. Cuatro de estas campañas se originaron en China, enfocándose en ingeniería social, operaciones encubiertas de influencia y amenazas cibernéticas.
En una campaña denominada "Sneer Review", actores chinos inundaron plataformas sociales con comentarios críticos dirigidos a un juego de mesa taiwanés que incluía temas de resistencia contra el Partido Comunista Chino. Otra operación, "Helgoland Bite", involucró a actores rusos generando contenido en alemán que criticaba a Estados Unidos y la OTAN, mientras intentaban influir en las elecciones alemanas de 2025. Se observó que actores norcoreanos utilizaban IA para producir en masa currículums falsos para puestos tecnológicos remotos, con el objetivo de obtener control sobre dispositivos corporativos entregados durante la incorporación.
Los equipos de seguridad de OpenAI emplearon la IA como multiplicador de fuerza en sus investigaciones, lo que les permitió detectar, interrumpir y exponer actividades abusivas, incluyendo ingeniería social, espionaje cibernético y esquemas laborales engañosos. Los sistemas de detección de la empresa identificaron comportamientos inusuales en todas las campañas, lo que llevó a la cancelación de cuentas y al intercambio de inteligencia con plataformas asociadas.
"Creemos que compartir información y mantener la transparencia fomenta una mayor conciencia y preparación entre todos los actores involucrados, lo que conduce a una defensa colectiva más sólida frente a adversarios en constante evolución", afirmó OpenAI en su informe. Aunque la IA generativa no ha creado categorías completamente nuevas de amenazas, sí ha reducido significativamente las barreras técnicas para los actores maliciosos y ha incrementado la eficiencia de los ataques coordinados.
Expertos en seguridad enfatizan que las organizaciones deben mantenerse alertas sobre cómo los adversarios están adoptando modelos de lenguaje de gran escala en sus operaciones y participar en el intercambio de inteligencia en tiempo real proporcionado por empresas como OpenAI, Google, Meta y Anthropic, para construir defensas colectivas más sólidas frente a estas amenazas en evolución.