Des chercheurs en cybersécurité ont mis au jour de nouvelles variantes inquiétantes du célèbre outil d’IA malveillant WormGPT, qui exploitent désormais des modèles de langage commerciaux (LLM) développés par xAI et Mistral AI pour alimenter des cyberattaques sophistiquées.
L’équipe de renseignement sur les menaces de Cato Networks a identifié deux variantes inédites de WormGPT, vendues sur des forums clandestins tels que BreachForums. Ces variantes, développées par des utilisateurs connus sous les pseudonymes « xzin0vich » et « keanu », sont apparues respectivement en octobre 2024 et février 2025. Contrairement à la version originale de WormGPT lancée en 2023, qui reposait sur le modèle open source GPT-J, ces nouvelles itérations marquent un changement d’approche fondamental.
Plutôt que de concevoir des modèles d’IA sur mesure, les cybercriminels ont créé des interfaces sophistiquées autour de systèmes d’IA commerciaux existants. Grâce à des techniques de contournement (jailbreaking) et à la manipulation des instructions système, ils sont parvenus à déjouer les garde-fous de sécurité des modèles Grok d’Elon Musk et Mixtral de Mistral, les forçant à générer du contenu malveillant sans aucune contrainte éthique.
« Ces nouvelles versions de WormGPT ne sont pas des modèles conçus de toutes pièces, mais le résultat d’une adaptation habile de LLM existants par des acteurs malveillants », explique Vitaly Simonovich, chercheur chez Cato Networks. Cette approche abaisse considérablement la barrière d’entrée pour les cybercriminels, car adapter une API existante est bien moins complexe que d’entraîner un LLM malveillant depuis zéro.
Les deux variantes génèrent avec succès du contenu nuisible sur demande, notamment des e-mails de phishing convaincants et des scripts PowerShell conçus pour voler des identifiants sur des systèmes Windows 11. Elles sont accessibles via des chatbots Telegram sur abonnement, avec des tarifs allant de 8 à 100 dollars par mois.
L’évolution de WormGPT illustre une tendance plus large dans la cybercriminalité, où les acteurs malveillants détournent de plus en plus des services d’IA légitimes à des fins criminelles grâce à des techniques avancées d’ingénierie de prompt. Les experts en sécurité recommandent la mise en place de stratégies défensives globales, incluant des systèmes de détection des menaces renforcés par l’analyse comportementale, des contrôles d’accès plus stricts et des formations de sensibilisation à la sécurité intégrant des simulations de phishing générées par IA.
Alors que l’IA devient à la fois un outil d’attaque et une cible, les organisations doivent se préparer à cette nouvelle réalité où les plus grandes menaces liées à l’IA pourraient provenir des plateformes les plus populaires elles-mêmes.