OpenAI ha identificado una preocupante tendencia de actores chinos que aprovechan su tecnología de IA para llevar a cabo operaciones encubiertas, según un exhaustivo informe de amenazas publicado el 5 de junio de 2025.
La empresa de inteligencia artificial con sede en San Francisco ha interrumpido diez operaciones maliciosas en los últimos tres meses, de las cuales cuatro estaban vinculadas a China. Estas operaciones emplearon tácticas sofisticadas que abarcan desde la ingeniería social y el ciberespionaje hasta campañas de influencia dirigidas a varios países.
En un caso destacado, denominado "Sneer Review", operativos chinos utilizaron ChatGPT para generar comentarios breves en redes sociales como TikTok, X, Reddit y Facebook en varios idiomas. La operación creó tanto publicaciones como comentarios para simular interacción orgánica, abordando temas que iban desde la política exterior de EE. UU. hasta críticas a un videojuego centrado en Taiwán. De manera llamativa, los actores incluso utilizaron las herramientas de OpenAI para crear evaluaciones internas de desempeño que documentaban los procedimientos de la operación.
Otra campaña vinculada a China se hizo pasar por periodistas y analistas geopolíticos para recopilar inteligencia, utilizando ChatGPT para elaborar perfiles convincentes, traducir comunicaciones y analizar datos. Una tercera operación generó contenido polarizado apoyando ambos lados de temas políticos divisivos en EE. UU., incluyendo imágenes de perfil generadas por IA.
Aunque China tuvo un papel destacado en el informe, OpenAI también identificó usos maliciosos de la IA procedentes de Rusia, Corea del Norte, Irán, Camboya y Filipinas. Entre estos se incluyen el desarrollo de malware, la generación de currículos falsos para infiltración corporativa y la automatización de propaganda.
"Lo que estamos viendo desde China es una gama cada vez mayor de operaciones encubiertas que emplean un abanico creciente de tácticas", señaló Ben Nimmo, investigador principal del equipo de inteligencia de OpenAI. Sin embargo, destacó que la mayoría de las operaciones fueron interrumpidas en fases tempranas y alcanzaron a audiencias limitadas.
El informe subraya cómo la IA está reduciendo las barreras para los actores maliciosos al tiempo que incrementa la eficiencia operativa. OpenAI enfatizó la necesidad de una vigilancia colectiva, afirmando: "Creemos que compartir y ser transparentes fomenta una mayor concienciación y preparación entre todas las partes interesadas, lo que conduce a una defensa colectiva más sólida frente a adversarios en constante evolución."