OpenAI je objavio opsežno izvješće pod nazivom "Suzbijanje zlonamjerne upotrebe AI: lipanj 2025.", u kojem otkriva kako je tvrtka identificirala i neutralizirala 10 zlonamjernih kampanja koje su iskorištavale njezine AI sustave tijekom prvih mjeseci 2025. godine.
Izvješće detaljno opisuje kako su državni akteri iz šest zemalja—Kine, Rusije, Sjeverne Koreje, Irana, Kambodže i Filipina—koristili ChatGPT i druge AI alate za provođenje prijevara pri zapošljavanju, operacija utjecaja i spam kampanja. Četiri od tih kampanja potječu iz Kine, s fokusom na socijalni inženjering, prikrivene operacije utjecaja i kibernetičke prijetnje.
U jednoj kampanji nazvanoj "Sneer Review", kineski akteri preplavili su društvene platforme kritičkim komentarima usmjerenim na tajvansku društvenu igru koja uključuje teme otpora prema Komunističkoj partiji Kine. Druga operacija, "Helgoland Bite", uključivala je ruske aktere koji su generirali sadržaj na njemačkom jeziku kritizirajući SAD i NATO, pokušavajući utjecati na njemačke izbore 2025. godine. Uočeno je i da su sjevernokorejski akteri koristili AI za masovnu proizvodnju lažnih životopisa za udaljene IT poslove, s ciljem preuzimanja kontrole nad korporativnim uređajima izdanim tijekom procesa zapošljavanja.
OpenAI-jevi sigurnosni timovi koristili su umjetnu inteligenciju kao multiplikator snage za svoje istraživačke napore, što im je omogućilo otkrivanje, ometanje i razotkrivanje zloupotreba, uključujući socijalni inženjering, kibernetičku špijunažu i obmanjujuće sheme zapošljavanja. Sustavi za detekciju tvrtke prepoznali su neuobičajeno ponašanje u svim kampanjama, što je dovelo do ukidanja računa i dijeljenja informacija s partnerskim platformama.
"Vjerujemo da dijeljenje i transparentnost potiču veću svijest i pripremljenost svih dionika, što vodi jačoj kolektivnoj obrani protiv stalno promjenjivih protivnika", navodi OpenAI u izvješću. Iako generativna umjetna inteligencija nije stvorila sasvim nove kategorije prijetnji, značajno je snizila tehničke prepreke za zlonamjerne aktere i povećala učinkovitost koordiniranih napada.
Sigurnosni stručnjaci naglašavaju da organizacije moraju ostati oprezne u vezi s načinima na koje protivnici usvajaju velike jezične modele u svojim operacijama te se aktivno uključiti u razmjenu informacija u stvarnom vremenu koju nude tvrtke poput OpenAI-ja, Googlea, Mete i Anthropica, kako bi izgradili snažniju kolektivnu obranu protiv ovih razvijajućih prijetnji.