I ricercatori di cybersecurity hanno scoperto nuove e preoccupanti varianti del famigerato strumento di intelligenza artificiale malevola WormGPT, che ora sfruttano modelli linguistici di grandi dimensioni (LLM) commerciali sviluppati da xAI e Mistral AI per alimentare attacchi informatici sofisticati.
Il team di threat intelligence di Cato Networks ha identificato due varianti di WormGPT finora non segnalate, messe in vendita su forum underground come BreachForums. Le varianti, sviluppate da utenti noti come "xzin0vich" e "keanu", sono apparse rispettivamente nell’ottobre 2024 e nel febbraio 2025. A differenza della versione originale di WormGPT del 2023, che utilizzava il modello open-source GPT-J, queste nuove iterazioni rappresentano un cambiamento radicale nell’approccio.
Invece di costruire modelli di IA personalizzati da zero, i cybercriminali hanno creato sofisticati wrapper attorno a sistemi di IA commerciali esistenti. Attraverso tecniche di jailbreaking e prompt di sistema manipolati, sono riusciti ad aggirare le barriere di sicurezza nei modelli Grok di Elon Musk e Mixtral di Mistral, costringendoli a generare contenuti malevoli senza vincoli etici.
"Queste nuove iterazioni di WormGPT non sono modelli creati su misura da zero, ma il risultato di attori delle minacce che adattano abilmente LLM esistenti", ha spiegato Vitaly Simonovich, ricercatore di Cato Networks. Questo approccio abbassa drasticamente la barriera d’ingresso per i cybercriminali, poiché adattare un’API esistente è molto meno complesso rispetto all’addestramento di un LLM malevolo da zero.
Entrambe le varianti generano con successo contenuti dannosi su richiesta, tra cui email di phishing convincenti e script PowerShell progettati per rubare credenziali da sistemi Windows 11. Sono disponibili tramite chatbot su Telegram con abbonamenti che vanno da 8 a 100 dollari al mese.
L’evoluzione di WormGPT segnala una tendenza più ampia nel cybercrimine, dove gli attori delle minacce sfruttano sempre più servizi di IA legittimi per scopi malevoli attraverso tecniche avanzate di prompt engineering. Gli esperti di sicurezza raccomandano l’implementazione di strategie difensive complete, tra cui sistemi di rilevamento delle minacce potenziati da analisi comportamentale, controlli di accesso più rigorosi e una formazione sulla sicurezza che includa simulazioni di phishing generate dall’IA.
Con l’IA che diventa sia uno strumento di attacco sia un bersaglio, le organizzazioni devono prepararsi a una nuova realtà in cui le minacce più grandi potrebbero provenire dagli stessi servizi di IA più popolari.