OpenAI heeft een uitgebreid rapport uitgebracht met de titel "Disrupting malicious uses of AI: June 2025", waarin wordt onthuld hoe het bedrijf tien kwaadaardige campagnes heeft geïdentificeerd en geneutraliseerd die in de eerste maanden van 2025 misbruik maakten van zijn AI-systemen.
Het rapport beschrijft hoe door staten gesteunde actoren uit zes landen—China, Rusland, Noord-Korea, Iran, Cambodja en de Filipijnen—ChatGPT en andere AI-tools inzetten voor vacaturefraude, beïnvloedingsoperaties en spamcampagnes. Vier van deze campagnes kwamen uit China en richtten zich op social engineering, heimelijke beïnvloeding en cyberdreigingen.
In een campagne met de naam "Sneer Review" overspoelden Chinese actoren sociale platforms met kritische reacties op een Taiwanese bordspel dat thema’s van verzet tegen de Chinese Communistische Partij bevatte. Een andere operatie, "Helgoland Bite", betrof Russische actoren die Duitstalige content genereerden waarin de VS en de NAVO werden bekritiseerd, met als doel invloed uit te oefenen op de Duitse verkiezingen van 2025. Noord-Koreaanse actoren werden waargenomen bij het massaal produceren van valse cv’s met behulp van AI, om zo op afstand technische functies te bemachtigen en controle te krijgen over bedrijfsapparatuur die bij indiensttreding wordt verstrekt.
De beveiligingsteams van OpenAI zetten AI in als krachtvermenigvuldiger voor hun onderzoek, waardoor ze misbruikactiviteiten zoals social engineering, cyberspionage en misleidende wervingspraktijken konden detecteren, verstoren en blootleggen. De detectiesystemen van het bedrijf signaleerden afwijkend gedrag in alle campagnes, wat leidde tot het beëindigen van accounts en het delen van inlichtingen met partnerplatforms.
"Wij geloven dat delen en transparantie leiden tot meer bewustzijn en paraatheid bij alle betrokkenen, wat resulteert in een sterkere collectieve verdediging tegen steeds veranderende tegenstanders," aldus OpenAI in het rapport. Hoewel generatieve AI geen volledig nieuwe dreigingscategorieën heeft gecreëerd, heeft het de technische drempels voor kwaadwillenden aanzienlijk verlaagd en de efficiëntie van gecoördineerde aanvallen vergroot.
Beveiligingsexperts benadrukken dat organisaties waakzaam moeten blijven over hoe tegenstanders grote taalmodellen inzetten in hun operaties, en dat ze gebruik moeten maken van realtime inlichtingen die worden gedeeld door bedrijven als OpenAI, Google, Meta en Anthropic om samen sterkere verdediging op te bouwen tegen deze zich ontwikkelende dreigingen.