OpenAI har offentliggjort en omfattende rapport med titlen "Disrupting malicious uses of AI: June 2025", der afslører, hvordan virksomheden identificerede og neutraliserede 10 ondsindede kampagner, som udnyttede dens AI-systemer i årets første måneder.
Rapporten beskriver, hvordan statsstøttede aktører fra seks lande—Kina, Rusland, Nordkorea, Iran, Cambodja og Filippinerne—har udnyttet ChatGPT og andre AI-værktøjer til at udføre jobsvindel, påvirkningsoperationer og spamkampagner. Fire af disse kampagner havde oprindelse i Kina og fokuserede på social engineering, skjulte påvirkningsoperationer og cybertrusler.
I én kampagne, kaldet "Sneer Review", oversvømmede kinesiske aktører sociale platforme med kritiske kommentarer rettet mod et taiwansk brætspil, der indeholdt temaer om modstand mod det kinesiske kommunistparti. En anden operation, "Helgoland Bite", involverede russiske aktører, der genererede tysksproget indhold med kritik af USA og NATO, samtidig med at de forsøgte at påvirke det tyske valg i 2025. Nordkoreanske aktører blev observeret bruge AI til masseproduktion af falske CV'er til fjernarbejdsstillinger i tech-branchen med det formål at få kontrol over virksomheders enheder udleveret under onboarding.
OpenAIs sikkerhedsteams anvendte AI som en kraftforstærker i deres efterforskning, hvilket gjorde dem i stand til at opdage, forstyrre og afsløre misbrug, herunder social engineering, cyberespionage og vildledende jobordninger. Virksomhedens detektionssystemer markerede usædvanlig adfærd i alle kampagner, hvilket førte til lukning af konti og deling af efterretninger med samarbejdspartnere.
"Vi mener, at deling og gennemsigtighed skaber større bevidsthed og beredskab blandt alle interessenter og fører til et stærkere fælles forsvar mod stadigt udviklende modstandere," udtaler OpenAI i rapporten. Selvom generativ AI ikke har skabt helt nye trusselskategorier, har teknologien markant sænket de tekniske barrierer for ondsindede aktører og øget effektiviteten af koordinerede angreb.
Sikkerhedseksperter understreger, at organisationer skal være årvågne over for, hvordan modstandere tager store sprogmodeller i brug i deres operationer, og engagere sig i realtidsefterretninger fra virksomheder som OpenAI, Google, Meta og Anthropic for at opbygge stærkere kollektive forsvar mod disse nye trusler.