menu
close

Les cybercriminels exploitent Grok et Mixtral pour de nouvelles attaques WormGPT

Des chercheurs en cybersécurité ont découvert de nouvelles variantes malveillantes de WormGPT qui exploitent des modèles commerciaux comme Grok et Mixtral à l’aide de techniques sophistiquées de contournement des protections. Disponibles sur des forums clandestins depuis le début de 2025, ces outils permettent aux cybercriminels de générer des courriels d’hameçonnage convaincants, des scripts malveillants et des cyberattaques automatisées avec une précision inégalée. Les résultats révèlent que les acteurs malveillants détournent des systèmes d’IA légitimes au lieu de concevoir leurs propres modèles sur mesure.
Les cybercriminels exploitent Grok et Mixtral pour de nouvelles attaques WormGPT

Des chercheurs en cybersécurité ont mis au jour de nouvelles variantes inquiétantes du tristement célèbre outil d’IA malveillant WormGPT, qui tirent désormais parti de modèles commerciaux de grands modèles de langage (LLM) développés par xAI et Mistral AI pour alimenter des cyberattaques sophistiquées.

L’équipe de renseignement sur les menaces de Cato Networks a identifié deux variantes inédites de WormGPT en vente sur des forums clandestins comme BreachForums. Ces variantes, développées par des utilisateurs connus sous les pseudonymes « xzin0vich » et « keanu », sont apparues respectivement en octobre 2024 et février 2025. Contrairement à la version originale de WormGPT de 2023, qui utilisait le modèle open source GPT-J, ces nouvelles itérations représentent un changement d’approche fondamental.

Plutôt que de créer des modèles d’IA personnalisés à partir de zéro, les cybercriminels ont conçu des interfaces sophistiquées autour de systèmes d’IA commerciaux existants. Grâce à des techniques de contournement des protections (« jailbreaking ») et à la manipulation des instructions système, ils ont réussi à déjouer les garde-fous de sécurité des modèles Grok d’Elon Musk et Mixtral de Mistral, les forçant à générer du contenu malveillant sans contraintes éthiques.

« Ces nouvelles versions de WormGPT ne sont pas des modèles sur mesure développés de toutes pièces, mais plutôt le résultat d’acteurs malveillants qui adaptent habilement des LLM existants », explique Vitaly Simonovich, chercheur chez Cato Networks. Cette approche réduit considérablement la barrière d’entrée pour les cybercriminels, car l’adaptation d’une API existante est beaucoup moins complexe que l’entraînement d’un LLM malveillant à partir de zéro.

Les deux variantes génèrent avec succès du contenu nuisible sur demande, notamment des courriels d’hameçonnage convaincants et des scripts PowerShell conçus pour voler des identifiants sur des systèmes Windows 11. Elles sont accessibles via des robots conversationnels Telegram sur abonnement, à des tarifs variant de 8 $ à 100 $ par mois.

L’évolution de WormGPT illustre une tendance plus large dans la cybercriminalité, où les acteurs malveillants exploitent de plus en plus des services d’IA légitimes à des fins malicieuses grâce à une ingénierie sophistiquée des requêtes. Les experts en sécurité recommandent la mise en place de stratégies défensives complètes, incluant des systèmes de détection des menaces améliorés par l’analyse comportementale, des contrôles d’accès renforcés et une formation accrue à la sensibilisation à la sécurité intégrant des simulations d’hameçonnage générées par l’IA.

À mesure que l’IA devient à la fois un outil d’attaque et une cible, les organisations doivent se préparer à cette nouvelle réalité où les plus grandes menaces liées à l’IA pourraient provenir des plateformes les plus populaires elles-mêmes.

Source:

Latest News