menu
close

OpenAI zmarilo 10 štátom podporovaných kampaní zneužívajúcich AI

Správa OpenAI z júna 2025 podrobne opisuje, ako spoločnosť narušila 10 škodlivých kampaní, ktoré v prvých mesiacoch roka 2025 zneužívali ChatGPT na pracovné podvody, vplyvové operácie a spamové aktivity. Za mnohými z týchto operácií stáli štátom podporovaní aktéri z Číny, Ruska a Iránu, ktorí využívali AI nástroje na zefektívnenie podvodov, kybernetických útokov a globálnych vplyvových kampaní. Hoci generatívna AI nevytvorila nové kategórie hrozieb, výrazne znížila technické bariéry pre škodlivých aktérov a zvýšila efektivitu koordinovaných útokov.
OpenAI zmarilo 10 štátom podporovaných kampaní zneužívajúcich AI

OpenAI zverejnila komplexnú správu s názvom „Narušenie škodlivého využívania AI: jún 2025“, v ktorej odhaľuje, ako spoločnosť identifikovala a zneškodnila 10 škodlivých kampaní, ktoré v prvých mesiacoch roka 2025 zneužívali jej AI systémy.

Správa podrobne opisuje, ako štátom podporovaní aktéri zo šiestich krajín – Číny, Ruska, Severnej Kórey, Iránu, Kambodže a Filipín – využívali ChatGPT a ďalšie AI nástroje na pracovné podvody, vplyvové operácie a spamové kampane. Štyri z týchto kampaní pochádzali z Číny a zameriavali sa na sociálne inžinierstvo, skryté vplyvové operácie a kybernetické hrozby.

V jednej z kampaní s názvom „Sneer Review“ čínski aktéri zaplavili sociálne siete kritickými komentármi namierenými proti taiwanskej spoločenskej hre, ktorá obsahovala témy odporu voči Komunistickej strane Číny. Ďalšia operácia s názvom „Helgoland Bite“ zahŕňala ruských aktérov, ktorí generovali nemecky písaný obsah kritizujúci USA a NATO a zároveň sa pokúšali ovplyvniť nemecké voľby v roku 2025. U severokórejských aktérov bolo pozorované, že pomocou AI hromadne vytvárali falošné životopisy na vzdialené technologické pozície s cieľom získať kontrolu nad firemnými zariadeniami pridelenými počas nástupu do práce.

Bezpečnostné tímy OpenAI využívali AI ako multiplikátor svojich vyšetrovacích kapacít, čo im umožnilo detekovať, narušiť a odhaliť zneužívajúce aktivity vrátane sociálneho inžinierstva, kybernetickej špionáže a podvodných pracovných schém. Detekčné systémy spoločnosti zaznamenali neobvyklé správanie vo všetkých kampaniach, čo viedlo k zrušeniu účtov a zdieľaniu informácií s partnerskými platformami.

„Veríme, že zdieľanie a transparentnosť podporujú väčšie povedomie a pripravenosť všetkých zainteresovaných strán, čo vedie k silnejšej kolektívnej obrane proti neustále sa vyvíjajúcim protivníkom,“ uvádza OpenAI vo svojej správe. Hoci generatívna AI nevytvorila úplne nové kategórie hrozieb, výrazne znížila technické bariéry pre škodlivých aktérov a zvýšila efektivitu koordinovaných útokov.

Bezpečnostní experti zdôrazňujú, že organizácie musia zostať ostražité voči tomu, ako protivníci využívajú veľké jazykové modely vo svojich operáciách, a aktívne pracovať s aktuálnymi spravodajskými informáciami, ktoré zdieľajú spoločnosti ako OpenAI, Google, Meta a Anthropic, aby vybudovali silnejšiu kolektívnu obranu proti týmto vyvíjajúcim sa hrozbám.

Source: Techrepublic

Latest News