menu
close

Kibernetički kriminalci koriste Grok i Mixtral za nove WormGPT napade

Istraživači kibernetičke sigurnosti otkrili su nove zlonamjerne AI varijante temeljene na WormGPT-u koje iskorištavaju komercijalne modele poput Groka i Mixtrala pomoću sofisticiranih tehnika jailbreaking-a. Ovi alati, dostupni na podzemnim forumima od početka 2025. godine, omogućuju kibernetičkim kriminalcima izradu uvjerljivih phishing e-mailova, malicioznih skripti i automatiziranih kibernapada s dosad neviđenom preciznošću. Nalazi pokazuju kako prijetnje dolaze od preusmjeravanja legitimnih AI sustava, umjesto izgradnje vlastitih modela od nule.
Kibernetički kriminalci koriste Grok i Mixtral za nove WormGPT napade

Istraživači kibernetičke sigurnosti otkrili su zabrinjavajuće nove varijante zloglasnog zlonamjernog AI alata WormGPT, koji sada koristi komercijalne velike jezične modele (LLM-ove) tvrtki xAI i Mistral AI za pokretanje sofisticiranih kibernapada.

Tim za obavještajnu analitiku prijetnji iz Cato Networksa identificirao je dvije dosad neprijavljene varijante WormGPT-a koje se prodaju na podzemnim forumima poput BreachForums-a. Varijante, koje su razvili korisnici poznati kao "xzin0vich" i "keanu", pojavile su se u listopadu 2024. i veljači 2025. godine. Za razliku od originalnog WormGPT-a iz 2023., koji je koristio open-source GPT-J model, ove nove iteracije predstavljaju temeljnu promjenu pristupa.

Umjesto izgradnje vlastitih AI modela od nule, kibernetički kriminalci izradili su sofisticirane omotače oko postojećih komercijalnih AI sustava. Kroz tehnike jailbreaking-a i manipulirane sistemske upute, uspjeli su zaobići sigurnosne zaštite u Grok modelu Elona Muska i Mixtral modelu tvrtke Mistral, prisiljavajući ih na generiranje zlonamjernog sadržaja bez etičkih ograničenja.

"Ove nove iteracije WormGPT-a nisu prilagođeni modeli izgrađeni od temelja, već rezultat vještog prilagođavanja postojećih LLM-ova od strane aktera prijetnji," pojasnio je Vitaly Simonovich, istraživač iz Cato Networksa. Ovakav pristup značajno snižava prag za ulazak u svijet kibernetičkog kriminala, jer je prilagodba postojećeg API-ja daleko manje složena od treniranja zlonamjernog LLM-a od nule.

Obje varijante uspješno generiraju štetan sadržaj na zahtjev, uključujući uvjerljive phishing e-mailove i PowerShell skripte namijenjene krađi vjerodajnica s Windows 11 sustava. Dostupne su putem Telegram chatbota na pretplatničkoj osnovi, s cijenama od 8 do 100 američkih dolara mjesečno.

Evolucija WormGPT-a upućuje na širi trend u kibernetičkom kriminalu, gdje akteri prijetnji sve više iskorištavaju legitimne AI servise u zlonamjerne svrhe kroz sofisticirano inženjerstvo upita (prompt engineering). Stručnjaci za sigurnost preporučuju implementaciju sveobuhvatnih obrambenih strategija, uključujući napredne sustave za detekciju prijetnji s bihevioralnom analitikom, jače kontrole pristupa i poboljšanu edukaciju o sigurnosti koja uključuje simulacije phishing napada generiranih AI-jem.

Kako AI postaje i alat za napad i meta sam po sebi, organizacije se moraju pripremiti za novu stvarnost u kojoj najveće AI prijetnje mogu dolaziti upravo iz najpopularnijih platformi.

Source:

Latest News