menu
close

OpenAI frustra 10 campañas de uso indebido de IA respaldadas por Estados

El informe de junio de 2025 de OpenAI detalla cómo la compañía desbarató 10 campañas maliciosas que explotaban ChatGPT para estafas laborales, operaciones de influencia y actividades de spam a principios de 2025. Actores patrocinados por Estados de China, Rusia e Irán estuvieron detrás de muchas de estas operaciones, utilizando herramientas de IA para potenciar estafas, intrusiones cibernéticas y campañas de influencia global. Aunque la IA generativa no ha creado nuevas categorías de amenazas, sí ha reducido considerablemente las barreras técnicas para los actores maliciosos y ha incrementado la eficiencia de los ataques coordinados.
OpenAI frustra 10 campañas de uso indebido de IA respaldadas por Estados

OpenAI ha publicado un informe exhaustivo titulado "Desbaratando usos maliciosos de la IA: junio de 2025", en el que revela cómo la empresa identificó y neutralizó 10 campañas maliciosas que explotaban sus sistemas de IA durante los primeros meses de 2025.

El informe detalla cómo actores respaldados por Estados de seis países —China, Rusia, Corea del Norte, Irán, Camboya y Filipinas— han estado utilizando ChatGPT y otras herramientas de IA para llevar a cabo estafas laborales, operaciones de influencia y campañas de spam. Cuatro de estas campañas se originaron en China, centrándose en la ingeniería social, operaciones de influencia encubierta y amenazas cibernéticas.

En una campaña denominada "Sneer Review", actores chinos inundaron plataformas sociales con comentarios críticos dirigidos a un juego de mesa taiwanés que incluía temas de resistencia contra el Partido Comunista Chino. Otra operación, "Helgoland Bite", implicó a actores rusos generando contenido en alemán que criticaba a Estados Unidos y la OTAN, intentando influir en las elecciones alemanas de 2025. Se observó a actores norcoreanos utilizando IA para producir en masa currículos falsos para puestos tecnológicos remotos, con el objetivo de obtener control sobre dispositivos corporativos entregados durante el proceso de incorporación.

Los equipos de seguridad de OpenAI emplearon la IA como multiplicador de fuerza en sus investigaciones, lo que les permitió detectar, interrumpir y exponer actividades abusivas, incluyendo ingeniería social, espionaje cibernético y esquemas laborales engañosos. Los sistemas de detección de la compañía identificaron comportamientos inusuales en todas las campañas, lo que llevó a la cancelación de cuentas y al intercambio de inteligencia con plataformas asociadas.

"Creemos que compartir información y la transparencia fomentan una mayor concienciación y preparación entre todas las partes interesadas, lo que conduce a una defensa colectiva más sólida frente a adversarios en constante evolución", afirmó OpenAI en su informe. Aunque la IA generativa no ha creado categorías de amenazas completamente nuevas, sí ha reducido significativamente las barreras técnicas para los actores maliciosos y ha incrementado la eficiencia de los ataques coordinados.

Expertos en seguridad subrayan que las organizaciones deben mantenerse alerta ante la adopción de grandes modelos de lenguaje por parte de los adversarios en sus operaciones y colaborar con la inteligencia en tiempo real compartida por empresas como OpenAI, Google, Meta y Anthropic para construir defensas colectivas más sólidas frente a estas amenazas en evolución.

Source: Techrepublic

Latest News