menu
close

OpenAI spriječio 10 državnih kampanja zloupotrebe umjetne inteligencije

OpenAI-ovo izvješće iz lipnja 2025. detaljno opisuje kako je tvrtka osujetila 10 zlonamjernih kampanja koje su iskorištavale ChatGPT za prijevare pri zapošljavanju, operacije utjecaja i spam aktivnosti početkom 2025. Državni akteri iz Kine, Rusije i Irana stajali su iza mnogih ovih operacija, koristeći AI alate za unapređenje prijevara, kibernetičkih upada i globalnih kampanja utjecaja. Iako generativna umjetna inteligencija nije stvorila nove kategorije prijetnji, značajno je snizila tehničke prepreke za zlonamjerne aktere i povećala učinkovitost koordiniranih napada.
OpenAI spriječio 10 državnih kampanja zloupotrebe umjetne inteligencije

OpenAI je objavio opsežno izvješće pod nazivom "Suzbijanje zlonamjerne upotrebe AI: lipanj 2025.", u kojem otkriva kako je tvrtka identificirala i neutralizirala 10 zlonamjernih kampanja koje su iskorištavale njezine AI sustave tijekom prvih mjeseci 2025. godine.

Izvješće detaljno opisuje kako su državni akteri iz šest zemalja—Kine, Rusije, Sjeverne Koreje, Irana, Kambodže i Filipina—koristili ChatGPT i druge AI alate za provođenje prijevara pri zapošljavanju, operacija utjecaja i spam kampanja. Četiri od tih kampanja potječu iz Kine, s fokusom na socijalni inženjering, prikrivene operacije utjecaja i kibernetičke prijetnje.

U jednoj kampanji nazvanoj "Sneer Review", kineski akteri preplavili su društvene platforme kritičkim komentarima usmjerenim na tajvansku društvenu igru koja uključuje teme otpora prema Komunističkoj partiji Kine. Druga operacija, "Helgoland Bite", uključivala je ruske aktere koji su generirali sadržaj na njemačkom jeziku kritizirajući SAD i NATO, pokušavajući utjecati na njemačke izbore 2025. godine. Uočeno je i da su sjevernokorejski akteri koristili AI za masovnu proizvodnju lažnih životopisa za udaljene IT poslove, s ciljem preuzimanja kontrole nad korporativnim uređajima izdanim tijekom procesa zapošljavanja.

OpenAI-jevi sigurnosni timovi koristili su umjetnu inteligenciju kao multiplikator snage za svoje istraživačke napore, što im je omogućilo otkrivanje, ometanje i razotkrivanje zloupotreba, uključujući socijalni inženjering, kibernetičku špijunažu i obmanjujuće sheme zapošljavanja. Sustavi za detekciju tvrtke prepoznali su neuobičajeno ponašanje u svim kampanjama, što je dovelo do ukidanja računa i dijeljenja informacija s partnerskim platformama.

"Vjerujemo da dijeljenje i transparentnost potiču veću svijest i pripremljenost svih dionika, što vodi jačoj kolektivnoj obrani protiv stalno promjenjivih protivnika", navodi OpenAI u izvješću. Iako generativna umjetna inteligencija nije stvorila sasvim nove kategorije prijetnji, značajno je snizila tehničke prepreke za zlonamjerne aktere i povećala učinkovitost koordiniranih napada.

Sigurnosni stručnjaci naglašavaju da organizacije moraju ostati oprezne u vezi s načinima na koje protivnici usvajaju velike jezične modele u svojim operacijama te se aktivno uključiti u razmjenu informacija u stvarnom vremenu koju nude tvrtke poput OpenAI-ja, Googlea, Mete i Anthropica, kako bi izgradili snažniju kolektivnu obranu protiv ovih razvijajućih prijetnji.

Source: Techrepublic

Latest News