Cybersikkerhedsforskere har afsløret alarmerende nye varianter af det berygtede ondsindede AI-værktøj WormGPT, som nu udnytter kommercielle large language models (LLM'er) fra xAI og Mistral AI til at drive sofistikerede cyberangreb.
Cato Networks’ trusselsintelligensteam har identificeret to hidtil uanmeldte WormGPT-varianter, der sælges på undergrundsfora som BreachForums. Varianterne, udviklet af brugere kendt som "xzin0vich" og "keanu", dukkede op i henholdsvis oktober 2024 og februar 2025. I modsætning til den oprindelige WormGPT fra 2023, som brugte den open source-baserede GPT-J-model, repræsenterer disse nye udgaver et grundlæggende skifte i tilgang.
I stedet for at bygge skræddersyede AI-modeller fra bunden har cyberkriminelle skabt avancerede wrappers omkring eksisterende kommercielle AI-systemer. Gennem jailbreaking-teknikker og manipulerede systemprompter har de omgået sikkerhedsforanstaltninger i Elon Musks Grok- og Mistrals Mixtral-modeller og tvunget dem til at generere ondsindet indhold uden etiske begrænsninger.
"Disse nye udgaver af WormGPT er ikke specialudviklede modeller bygget fra bunden, men resultatet af trusselsaktører, der dygtigt tilpasser eksisterende LLM'er," forklarer Vitaly Simonovich, forsker hos Cato Networks. Denne tilgang sænker dramatisk adgangsbarrieren for cyberkriminelle, da det er langt mindre komplekst at tilpasse et eksisterende API end at træne en ondsindet LLM fra bunden.
Begge varianter genererer med succes skadeligt indhold på kommando, herunder overbevisende phishing-mails og PowerShell-scripts designet til at stjæle legitimationsoplysninger fra Windows 11-systemer. De tilbydes via Telegram-chatbots på abonnementsbasis, med priser fra 8 til 100 dollars om måneden.
Udviklingen af WormGPT signalerer en bredere tendens inden for cyberkriminalitet, hvor trusselsaktører i stigende grad udnytter legitime AI-tjenester til ondsindede formål gennem avanceret prompt engineering. Sikkerhedseksperter anbefaler at implementere omfattende forsvarsstrategier, herunder forbedrede trusselsdetekteringssystemer med adfærdsanalyse, stærkere adgangskontrol og forbedret sikkerhedsbevidsthedstræning, der inkluderer AI-genererede phishing-simulationer.
I takt med at AI både bliver et værktøj til angreb og et mål i sig selv, må organisationer forberede sig på en ny virkelighed, hvor de største AI-trusler kan komme fra de mest populære platforme selv.