OpenAI ha identificado una preocupante tendencia de actores chinos que aprovechan su tecnología de inteligencia artificial para operaciones encubiertas, según un informe integral de amenazas publicado el 5 de junio de 2025.
La empresa de IA con sede en San Francisco interrumpió diez operaciones maliciosas en los últimos tres meses, de las cuales cuatro estaban vinculadas a China. Estas operaciones emplearon tácticas sofisticadas que abarcan desde la ingeniería social y el espionaje cibernético hasta campañas de influencia dirigidas a múltiples países.
En un caso destacado denominado "Sneer Review", operativos chinos utilizaron ChatGPT para generar comentarios breves en diversas plataformas de redes sociales, incluyendo TikTok, X, Reddit y Facebook, en varios idiomas. La operación creó tanto publicaciones como comentarios para simular interacción orgánica, abordando temas que iban desde la política exterior de Estados Unidos hasta críticas a un videojuego centrado en Taiwán. De manera notable, los actores incluso usaron las herramientas de OpenAI para crear evaluaciones internas de desempeño que documentaban los procedimientos de su operación.
Otra campaña vinculada a China se hizo pasar por periodistas y analistas geopolíticos para recolectar inteligencia, utilizando ChatGPT para crear perfiles convincentes, traducir comunicaciones y analizar datos. Una tercera operación generó contenido polarizante que apoyaba ambos lados de temas políticos divisivos en Estados Unidos, incluyendo imágenes de perfil creadas por IA.
Aunque China tuvo un papel destacado en el informe, OpenAI también identificó el uso malicioso de IA proveniente de Rusia, Corea del Norte, Irán, Camboya y Filipinas. Estas actividades incluyeron el desarrollo de malware, la generación de currículums falsos para infiltración corporativa y la automatización de propaganda.
"Lo que estamos viendo desde China es una gama cada vez mayor de operaciones encubiertas que utilizan una variedad creciente de tácticas", señaló Ben Nimmo, investigador principal del equipo de inteligencia de OpenAI. Sin embargo, destacó que la mayoría de las operaciones fueron interrumpidas en etapas tempranas y alcanzaron audiencias limitadas.
El informe subraya cómo la IA está reduciendo las barreras para los actores maliciosos al tiempo que incrementa la eficiencia operativa. OpenAI enfatizó la necesidad de una vigilancia colectiva, afirmando: "Creemos que compartir y ser transparentes fomenta una mayor conciencia y preparación entre todos los involucrados, lo que lleva a una defensa colectiva más sólida frente a adversarios en constante evolución".