Cybersicherheitsforscher haben alarmierende neue Varianten des berüchtigten bösartigen KI-Tools WormGPT aufgedeckt, die nun kommerzielle Large Language Models (LLMs) von xAI und Mistral AI für ausgeklügelte Cyberangriffe nutzen.
Das Threat-Intelligence-Team von Cato Networks identifizierte zwei bislang unbekannte WormGPT-Varianten, die auf Untergrundforen wie BreachForums verkauft werden. Die Varianten, entwickelt von Nutzern mit den Pseudonymen „xzin0vich“ und „keanu“, tauchten im Oktober 2024 bzw. Februar 2025 auf. Im Gegensatz zum ursprünglichen WormGPT aus dem Jahr 2023, das auf dem Open-Source-Modell GPT-J basierte, stellen diese neuen Iterationen einen grundlegenden Wandel in der Herangehensweise dar.
Anstatt eigene KI-Modelle von Grund auf zu entwickeln, haben Cyberkriminelle ausgefeilte Wrapper um bestehende kommerzielle KI-Systeme gebaut. Mithilfe von Jailbreaking-Techniken und manipulierten System-Prompts umgingen sie die Sicherheitsmechanismen in Elon Musks Grok- und Mistrals Mixtral-Modellen, sodass diese ohne ethische Einschränkungen bösartige Inhalte generieren.
„Diese neuen Iterationen von WormGPT sind keine maßgeschneiderten Modelle, die von Grund auf gebaut wurden, sondern das Ergebnis von Bedrohungsakteuren, die bestehende LLMs geschickt anpassen“, erklärt Vitaly Simonovich, Forscher bei Cato Networks. Dieser Ansatz senkt die Einstiegshürde für Cyberkriminelle erheblich, da die Anpassung einer bestehenden API weitaus weniger komplex ist als das Training eines bösartigen LLM von Grund auf.
Beide Varianten sind in der Lage, auf Anfrage schädliche Inhalte zu generieren – darunter überzeugende Phishing-E-Mails und PowerShell-Skripte, die darauf ausgelegt sind, Zugangsdaten von Windows-11-Systemen zu stehlen. Sie sind über Telegram-Chatbots im Abonnement erhältlich, mit Preisen zwischen 8 und 100 US-Dollar pro Monat.
Die Weiterentwicklung von WormGPT signalisiert einen breiteren Trend in der Cyberkriminalität: Bedrohungsakteure nutzen zunehmend legitime KI-Dienste für böswillige Zwecke durch ausgeklügeltes Prompt Engineering. Sicherheitsexperten empfehlen umfassende Verteidigungsstrategien, darunter erweiterte Bedrohungserkennungssysteme mit Verhaltensanalytik, stärkere Zugriffskontrollen und verbesserte Security-Awareness-Trainings, die KI-generierte Phishing-Simulationen beinhalten.
Da KI sowohl als Angriffswerkzeug als auch als Ziel ins Visier gerät, müssen sich Unternehmen auf diese neue Realität vorbereiten – in der die größten KI-Bedrohungen möglicherweise aus den populärsten Plattformen selbst kommen.