menu
close

Cyberprzestępcy wykorzystują Grok i Mixtral do nowych ataków WormGPT

Badacze cyberbezpieczeństwa odkryli nowe złośliwe warianty WormGPT, które wykorzystują komercyjne modele AI, takie jak Grok i Mixtral, poprzez zaawansowane techniki łamania zabezpieczeń. Narzędzia te, dostępne na podziemnych forach od początku 2025 roku, umożliwiają cyberprzestępcom generowanie przekonujących e-maili phishingowych, skryptów malware oraz zautomatyzowanych cyberataków z niespotykaną dotąd precyzją. Odkrycia pokazują, że sprawcy zagrożeń coraz częściej adaptują legalne systemy AI zamiast budować własne modele od podstaw.
Cyberprzestępcy wykorzystują Grok i Mixtral do nowych ataków WormGPT

Badacze cyberbezpieczeństwa ujawnili niepokojące, nowe warianty złośliwego narzędzia AI WormGPT, które obecnie wykorzystuje komercyjne duże modele językowe (LLM) od xAI oraz Mistral AI do przeprowadzania zaawansowanych cyberataków.

Zespół ds. wywiadu zagrożeń Cato Networks zidentyfikował dwa dotąd niezgłoszone warianty WormGPT, które są sprzedawane na podziemnych forach, takich jak BreachForums. Warianty, opracowane przez użytkowników o pseudonimach „xzin0vich” i „keanu”, pojawiły się odpowiednio w październiku 2024 i lutym 2025 roku. W przeciwieństwie do oryginalnego WormGPT z 2023 roku, który wykorzystywał otwartoźródłowy model GPT-J, nowe wersje stanowią fundamentalną zmianę podejścia.

Zamiast budować własne modele AI od podstaw, cyberprzestępcy stworzyli zaawansowane nakładki na istniejące komercyjne systemy AI. Dzięki technikom łamania zabezpieczeń (jailbreaking) oraz manipulowanym promptom systemowym, udało im się obejść mechanizmy bezpieczeństwa w modelach Grok Elona Muska i Mixtral od Mistral, zmuszając je do generowania złośliwych treści bez ograniczeń etycznych.

„Te nowe wersje WormGPT nie są autorskimi modelami budowanymi od zera, lecz efektem umiejętnego dostosowania istniejących dużych modeli językowych przez sprawców zagrożeń” – wyjaśnia Vitaly Simonovich, badacz z Cato Networks. Takie podejście znacząco obniża próg wejścia dla cyberprzestępców, ponieważ adaptacja istniejącego API jest znacznie prostsza niż trenowanie złośliwego LLM od podstaw.

Oba warianty skutecznie generują szkodliwe treści na żądanie, w tym przekonujące e-maile phishingowe oraz skrypty PowerShell służące do kradzieży danych uwierzytelniających z systemów Windows 11. Są one dostępne poprzez chatboty na Telegramie w modelu subskrypcyjnym, a ceny wahają się od 8 do 100 dolarów miesięcznie.

Ewolucja WormGPT sygnalizuje szerszy trend w cyberprzestępczości, gdzie sprawcy coraz częściej wykorzystują legalne usługi AI do celów przestępczych poprzez zaawansowane inżynierie promptów. Eksperci ds. bezpieczeństwa zalecają wdrażanie kompleksowych strategii obronnych, w tym zaawansowanych systemów wykrywania zagrożeń z analizą behawioralną, silniejszych kontroli dostępu oraz rozbudowanych szkoleń z zakresu świadomości bezpieczeństwa, obejmujących symulacje phishingu generowanego przez AI.

W miarę jak AI staje się zarówno narzędziem ataku, jak i celem samym w sobie, organizacje muszą przygotować się na nową rzeczywistość, w której największe zagrożenia AI mogą pochodzić z najpopularniejszych platform.

Source:

Latest News