menu
close

OpenAI zmařila 10 státem podporovaných kampaní zneužívajících AI

Červnová zpráva OpenAI z roku 2025 podrobně popisuje, jak společnost narušila 10 škodlivých kampaní, které v první polovině roku 2025 zneužívaly ChatGPT k pracovním podvodům, vlivovým operacím a spamovým aktivitám. Za mnoha těmito operacemi stáli státem podporovaní aktéři z Číny, Ruska a Íránu, kteří využívali AI nástroje k vylepšení podvodů, kybernetických průniků a globálních vlivových kampaní. Přestože generativní AI nevytvořila nové kategorie hrozeb, výrazně snížila technické bariéry pro škodlivé aktéry a zvýšila efektivitu koordinovaných útoků.
OpenAI zmařila 10 státem podporovaných kampaní zneužívajících AI

OpenAI zveřejnila komplexní zprávu s názvem „Disrupting malicious uses of AI: June 2025“, která odhaluje, jak společnost v prvních měsících roku 2025 identifikovala a zneškodnila 10 škodlivých kampaní zneužívajících její AI systémy.

Zpráva podrobně popisuje, jak státem podporovaní aktéři ze šesti zemí – Číny, Ruska, Severní Koreje, Íránu, Kambodže a Filipín – využívali ChatGPT a další AI nástroje k pracovním podvodům, vlivovým operacím a spamovým kampaním. Čtyři z těchto kampaní pocházely z Číny a zaměřovaly se na sociální inženýrství, skryté vlivové operace a kybernetické hrozby.

V jedné z kampaní s názvem „Sneer Review“ čínští aktéři zaplavili sociální sítě kritickými komentáři zaměřenými na tchajwanskou deskovou hru, která obsahovala motivy odporu proti Komunistické straně Číny. Další operace, „Helgoland Bite“, zahrnovala ruské aktéry, kteří generovali německy psaný obsah kritizující USA a NATO a zároveň se snažili ovlivnit německé volby v roce 2025. Bylo také zaznamenáno, že severokorejští aktéři využívali AI k hromadné výrobě falešných životopisů pro vzdálené technologické pozice s cílem získat kontrolu nad firemními zařízeními vydávanými při nástupu do zaměstnání.

Bezpečnostní týmy OpenAI využily AI jako multiplikátor svých vyšetřovacích schopností, což jim umožnilo detekovat, narušovat a odhalovat zneužívající aktivity včetně sociálního inženýrství, kyberšpionáže a podvodných pracovních schémat. Detekční systémy společnosti ve všech kampaních zaznamenaly neobvyklé chování, což vedlo k ukončení účtů a sdílení informací s partnerskými platformami.

„Věříme, že sdílení a transparentnost podporují větší povědomí a připravenost všech zúčastněných, což vede k silnější kolektivní obraně proti neustále se vyvíjejícím protivníkům,“ uvádí OpenAI ve své zprávě. Přestože generativní AI nevytvořila zcela nové kategorie hrozeb, výrazně snížila technické bariéry pro škodlivé aktéry a zvýšila efektivitu koordinovaných útoků.

Bezpečnostní experti zdůrazňují, že organizace musí zůstat ostražité vůči tomu, jak protivníci začleňují velké jazykové modely do svých operací, a aktivně využívat informace v reálném čase sdílené společnostmi jako OpenAI, Google, Meta a Anthropic, aby posílily kolektivní obranu proti těmto vyvíjejícím se hrozbám.

Source: Techrepublic

Latest News