OpenAI ha identificado una tendencia creciente de grupos chinos que hacen un uso indebido de su tecnología de inteligencia artificial para operaciones encubiertas, según un informe publicado el 5 de junio. La empresa, con sede en San Francisco y recientemente valorada en 300.000 millones de dólares tras una ronda de financiación récord de 40.000 millones, ha tomado medidas prohibiendo varias cuentas vinculadas a estas actividades.
En un caso destacado, denominado "Sneer Review" por los investigadores de OpenAI, los operadores generaron publicaciones en redes sociales sobre temas políticamente sensibles para China. Entre ellos se incluían críticas a un videojuego centrado en Taiwán, acusaciones falsas contra una activista paquistaní y contenido relacionado con el cierre de USAID. Algunas publicaciones también criticaban las políticas arancelarias del presidente estadounidense Donald Trump. La operación era lo suficientemente sofisticada como para crear tanto publicaciones como comentarios, simulando así una interacción orgánica.
Una segunda operación implicaba a actores vinculados a amenazas chinas que utilizaban ChatGPT para apoyar diversas fases de sus operaciones cibernéticas. Esto incluía investigación en fuentes abiertas, modificación de scripts, resolución de problemas en configuraciones de sistemas y desarrollo de herramientas para ataques de fuerza bruta a contraseñas y automatización en redes sociales. Especialmente preocupante fue el hallazgo de que estos actores empleaban las herramientas de OpenAI para crear documentos internos, incluidos informes de rendimiento que detallaban sus actividades.
Un tercer ejemplo reveló una operación de influencia originada en China que generaba contenido polarizador en redes sociales apoyando ambos lados de temas divisivos dentro del discurso político estadounidense. Este enfoque parece estar diseñado para explotar las divisiones políticas existentes más que para promover una postura ideológica concreta. Ben Nimmo, investigador principal del equipo de inteligencia de OpenAI, señaló que, aunque estas operaciones demuestran "una gama creciente de operaciones encubiertas usando una variedad cada vez mayor de tácticas", generalmente eran interrumpidas en fases tempranas antes de alcanzar grandes audiencias.
El informe de OpenAI también mencionó la interrupción de operaciones de influencia encubierta procedentes de otros países, incluidos Rusia e Irán, así como diversas estafas vinculadas a Camboya y Corea del Norte. La empresa supervisa y reporta regularmente la actividad maliciosa en su plataforma como parte de su compromiso con el desarrollo responsable de la IA.
El Ministerio de Asuntos Exteriores de China no ha respondido a las solicitudes de comentarios sobre los hallazgos de OpenAI.