OpenAI har identifierat en oroande trend där kinesiska aktörer utnyttjar företagets AI-teknik för dolda operationer, enligt en omfattande hotrapport som publicerades den 5 juni 2025.
Det San Francisco-baserade AI-företaget har under de senaste tre månaderna stoppat tio illvilliga operationer, varav fyra kunde kopplas till Kina. Dessa operationer använde sofistikerade metoder inom social ingenjörskonst, cyber-spionage och påverkanskampanjer riktade mot flera länder.
I ett särskilt uppmärksammat fall, kallat "Sneer Review", använde kinesiska operatörer ChatGPT för att generera korta kommentarer på sociala medieplattformar som TikTok, X, Reddit och Facebook på flera olika språk. Operationen skapade både inlägg och kommentarer för att simulera organisk interaktion, med teman som sträckte sig från amerikansk utrikespolitik till kritik av ett Taiwan-fokuserat datorspel. Anmärkningsvärt är att aktörerna även använde OpenAIs verktyg för att skapa interna utvärderingar av operationens arbetsprocesser.
En annan Kina-kopplad kampanj utgav sig för att vara journalister och geopolitiska analytiker för att samla in underrättelser, där ChatGPT användes för att skapa trovärdiga profiler, översätta kommunikation och analysera data. En tredje operation genererade polariserande innehåll som stödde båda sidor i splittrande amerikanska politiska frågor, komplett med AI-genererade profilbilder.
Även om Kina var framträdande i rapporten identifierade OpenAI även illvillig AI-användning från Ryssland, Nordkorea, Iran, Kambodja och Filippinerna. Dessa inkluderade utveckling av skadlig kod, skapande av falska CV:n för företagsinfiltration och automatiserad propaganda.
"Det vi ser från Kina är ett växande antal dolda operationer med ett allt bredare spektrum av taktiker," säger Ben Nimmo, huvudutredare på OpenAIs underrättelseteam. Han påpekar dock att de flesta operationer stoppades tidigt och nådde en begränsad publik.
Rapporten understryker hur AI sänker trösklarna för illvilliga aktörer samtidigt som den ökar den operativa effektiviteten. OpenAI betonar behovet av kollektiv vaksamhet och säger: "Vi anser att delning och transparens skapar större medvetenhet och beredskap hos alla intressenter, vilket leder till ett starkare gemensamt försvar mot ständigt föränderliga motståndare."