Cybersäkerhetsforskare har avslöjat oroande nya varianter av det ökända skadliga AI-verktyget WormGPT, som nu använder kommersiella stora språkmodeller (LLM) från xAI och Mistral AI för att driva sofistikerade cyberattacker.
Cato Networks hotintelligens-team identifierade två tidigare okända WormGPT-varianter som säljs på underjordiska forum som BreachForums. Varianterna, utvecklade av användare kända som "xzin0vich" och "keanu", dök upp i oktober 2024 respektive februari 2025. Till skillnad från ursprungliga WormGPT från 2023, som använde den öppna GPT-J-modellen, innebär dessa nya versioner ett grundläggande skifte i tillvägagångssätt.
Istället för att bygga egna AI-modeller från grunden har cyberkriminella skapat avancerade "wrappers" runt befintliga kommersiella AI-system. Genom jailbreaking-tekniker och manipulerade systemprompter har de kringgått säkerhetsspärrarna i Elon Musks Grok och Mistrals Mixtral-modeller, vilket tvingar dem att generera skadligt innehåll utan etiska begränsningar.
"Dessa nya versioner av WormGPT är inte skräddarsydda modeller byggda från grunden, utan resultatet av att hotaktörer skickligt anpassar befintliga LLM:er," förklarar Vitaly Simonovich, forskare på Cato Networks. Detta tillvägagångssätt sänker tröskeln avsevärt för cyberkriminella, eftersom det är betydligt enklare att anpassa ett befintligt API än att träna en skadlig LLM från grunden.
Båda varianterna lyckas generera skadligt innehåll på begäran, inklusive trovärdiga phishing-mejl och PowerShell-skript utformade för att stjäla inloggningsuppgifter från Windows 11-system. De erbjuds via Telegram-chatbottar på prenumerationsbasis, med priser från 8 till 100 dollar per månad.
WormGPT:s utveckling signalerar en bredare trend inom cyberbrottsligheten, där hotaktörer i allt högre grad utnyttjar legitima AI-tjänster för skadliga ändamål genom avancerad promptteknik. Säkerhetsexperter rekommenderar att organisationer implementerar omfattande försvarsstrategier, inklusive förbättrade hotdetekteringssystem med beteendeanalys, starkare åtkomstkontroller och förbättrad säkerhetsmedvetenhetsträning som inkluderar AI-genererade phishing-simuleringar.
I takt med att AI blir både ett verktyg för attacker och ett mål i sig, måste organisationer förbereda sig för en ny verklighet där de största AI-hotet kan komma inifrån de mest populära plattformarna själva.