menu
close

OpenAI detecta aumento en el uso indebido de ChatGPT por parte de grupos chinos para operaciones encubiertas

OpenAI informó el 5 de junio de 2025 que un número creciente de grupos chinos están explotando su tecnología de inteligencia artificial para operaciones encubiertas, incluyendo la generación de contenido polarizante en redes sociales y el apoyo a actividades cibernéticas. Aunque estas operaciones han crecido en alcance y tácticas, siguen siendo de escala relativamente pequeña y con un alcance de audiencia limitado. Los hallazgos resaltan las preocupaciones persistentes sobre el potencial de mal uso de la IA generativa para crear texto, imágenes y audio similares a los humanos con fines maliciosos.
OpenAI detecta aumento en el uso indebido de ChatGPT por parte de grupos chinos para operaciones encubiertas

OpenAI ha identificado una tendencia creciente de grupos chinos que hacen un uso indebido de su tecnología de inteligencia artificial para operaciones encubiertas, según un informe publicado el 5 de junio. La empresa, con sede en San Francisco y recientemente valorada en 300 mil millones de dólares tras una ronda de financiamiento récord de 40 mil millones, ha tomado medidas prohibiendo múltiples cuentas vinculadas a estas actividades.

En un caso destacado, denominado "Sneer Review" por los investigadores de OpenAI, los operadores generaron publicaciones en redes sociales sobre temas políticamente sensibles para China. Entre estos se incluyeron críticas a un videojuego centrado en Taiwán, acusaciones falsas contra una activista pakistaní y contenido relacionado con el cierre de USAID. Algunas publicaciones también criticaron las políticas arancelarias del presidente estadounidense Donald Trump. La operación fue lo suficientemente sofisticada como para crear tanto publicaciones como comentarios, simulando así una interacción orgánica.

Una segunda operación involucró a actores de amenazas vinculados a China que utilizaron ChatGPT para apoyar diversas fases de sus operaciones cibernéticas. Esto incluyó investigación de fuentes abiertas, modificación de scripts, solución de problemas de configuración de sistemas y desarrollo de herramientas para ataques de fuerza bruta a contraseñas y automatización en redes sociales. Especialmente preocupante fue el hallazgo de que estos actores usaron las herramientas de OpenAI para crear documentos internos, incluyendo evaluaciones de desempeño que detallaban sus actividades.

Un tercer ejemplo reveló una operación de influencia originada en China que generó contenido polarizante en redes sociales apoyando ambos lados de temas divisivos dentro del discurso político estadounidense. Este enfoque parece estar diseñado para explotar las divisiones políticas existentes en lugar de promover una postura ideológica específica. Ben Nimmo, investigador principal del equipo de inteligencia de OpenAI, señaló que, aunque estas operaciones demuestran "una gama creciente de operaciones encubiertas usando una gama cada vez mayor de tácticas", generalmente fueron interrumpidas en etapas tempranas antes de alcanzar grandes audiencias.

El informe de OpenAI también mencionó la interrupción de operaciones de influencia encubierta provenientes de otros países, incluyendo Rusia e Irán, así como diversas estafas vinculadas a Camboya y Corea del Norte. La empresa monitorea y reporta regularmente la actividad maliciosa en su plataforma como parte de su compromiso con el desarrollo responsable de la IA.

El Ministerio de Relaciones Exteriores de China no ha respondido a las solicitudes de comentarios sobre los hallazgos de OpenAI.

Source:

Latest News