menu
close

Cybercriminelen Wapenen Grok en Mixtral voor Nieuwe WormGPT-aanvallen

Cybersecurityonderzoekers hebben nieuwe kwaadaardige AI-varianten ontdekt, gebaseerd op WormGPT, die commerciële modellen als Grok en Mixtral misbruiken via geavanceerde jailbreaking-technieken. Deze tools, sinds begin 2025 beschikbaar op ondergrondse fora, stellen cybercriminelen in staat om overtuigende phishingmails, malwarescripts en geautomatiseerde cyberaanvallen met ongekende precisie te genereren. De bevindingen tonen aan hoe dreigingsactoren legitieme AI-systemen hergebruiken in plaats van zelf modellen vanaf nul te bouwen.
Cybercriminelen Wapenen Grok en Mixtral voor Nieuwe WormGPT-aanvallen

Cybersecurityonderzoekers hebben alarmerende nieuwe varianten van het beruchte kwaadaardige AI-hulpmiddel WormGPT ontdekt, die nu gebruikmaken van commerciële large language models (LLM's) van xAI en Mistral AI om geavanceerde cyberaanvallen uit te voeren.

Het threat intelligence-team van Cato Networks identificeerde twee tot nu toe onbekende WormGPT-varianten die worden verkocht op ondergrondse fora zoals BreachForums. De varianten, ontwikkeld door gebruikers met de aliassen "xzin0vich" en "keanu", verschenen respectievelijk in oktober 2024 en februari 2025. In tegenstelling tot de oorspronkelijke WormGPT uit 2023, die het open-source GPT-J-model gebruikte, vertegenwoordigen deze nieuwe iteraties een fundamentele verandering van aanpak.

In plaats van eigen AI-modellen vanaf de grond op te bouwen, hebben cybercriminelen geavanceerde wrappers gecreëerd rond bestaande commerciële AI-systemen. Door middel van jailbreaking-technieken en gemanipuleerde systeemopdrachten hebben ze de veiligheidsmaatregelen in Grok van Elon Musk en Mixtral van Mistral weten te omzeilen, waardoor deze modellen zonder ethische beperkingen kwaadaardige content genereren.

"Deze nieuwe iteraties van WormGPT zijn geen op maat gemaakte modellen die vanaf nul zijn opgebouwd, maar het resultaat van dreigingsactoren die bestaande LLM's vakkundig aanpassen," legt Vitaly Simonovich, onderzoeker bij Cato Networks, uit. Deze aanpak verlaagt de drempel voor cybercriminelen aanzienlijk, omdat het aanpassen van een bestaande API veel minder complex is dan het trainen van een kwaadaardige LLM vanaf het begin.

Beide varianten genereren bij de juiste prompt succesvol schadelijke content, waaronder overtuigende phishingmails en PowerShell-scripts die bedoeld zijn om inloggegevens van Windows 11-systemen te stelen. Ze zijn beschikbaar via Telegram-chatbots op abonnementsbasis, met prijzen variërend van $8 tot $100 per maand.

De evolutie van WormGPT wijst op een bredere trend binnen de cybercriminaliteit, waarbij dreigingsactoren steeds vaker legitieme AI-diensten inzetten voor kwaadaardige doeleinden via geavanceerde prompt engineering. Security-experts adviseren om uitgebreide verdedigingsstrategieën te implementeren, waaronder verbeterde dreigingsdetectiesystemen met gedragsanalyse, sterkere toegangscontroles en betere security awareness-training met AI-gegenereerde phishing-simulaties.

Nu AI zowel een aanvalsmiddel als een doelwit wordt, moeten organisaties zich voorbereiden op deze nieuwe realiteit, waarin de grootste AI-bedreigingen mogelijk afkomstig zijn van binnen de populairste platforms zelf.

Source:

Latest News