OpenAI har identificeret en bekymrende tendens, hvor kinesiske aktører udnytter virksomhedens AI-teknologi til skjulte operationer, ifølge en omfattende trusselsrapport offentliggjort den 5. juni 2025.
Det San Francisco-baserede AI-selskab har forpurret ti ondsindede operationer i løbet af de seneste tre måneder, hvoraf fire kan knyttes til Kina. Disse operationer benyttede sofistikerede taktikker, der spænder fra social engineering og cyber-spionage til påvirkningskampagner rettet mod flere lande.
I et særligt bemærkelsesværdigt tilfælde, kaldet "Sneer Review", brugte kinesiske operatører ChatGPT til at generere korte kommentarer på sociale medieplatforme som TikTok, X, Reddit og Facebook på flere sprog. Operationen skabte både opslag og kommentarer for at simulere organisk engagement og rettede sig mod emner som amerikansk udenrigspolitik og kritik af et Taiwan-fokuseret videospil. Bemærkelsesværdigt er det, at aktørerne endda brugte OpenAIs værktøjer til at udarbejde interne performance reviews, der dokumenterede operationens procedurer.
En anden Kina-relateret kampagne udgav sig for at være journalister og geopolitiske analytikere for at indsamle efterretninger. De brugte ChatGPT til at skabe overbevisende profiler, oversætte kommunikation og analysere data. En tredje operation genererede polariserende indhold, der støttede begge sider af splittende amerikanske politiske emner, komplet med AI-genererede profilbilleder.
Selvom Kina fyldte meget i rapporten, identificerede OpenAI også ondsindet AI-brug fra Rusland, Nordkorea, Iran, Cambodja og Filippinerne. Disse omfattede udvikling af malware, oprettelse af falske CV’er til infiltration af virksomheder og automatisering af propaganda.
"Det vi ser fra Kina, er et voksende antal skjulte operationer, der benytter et stigende antal taktikker," udtaler Ben Nimmo, hovedefterforsker på OpenAIs efterretningsteam. Han bemærker dog, at de fleste operationer blev forpurret tidligt og nåede kun ud til et begrænset publikum.
Rapporten understreger, hvordan AI sænker barriererne for ondsindede aktører, samtidig med at den øger den operationelle effektivitet. OpenAI fremhæver behovet for kollektiv årvågenhed og udtaler: "Vi mener, at deling og gennemsigtighed fremmer større bevidsthed og forberedelse blandt alle interessenter, hvilket fører til et stærkere kollektivt forsvar mod stadigt udviklende modstandere."