menu
close

Cibercriminosos Transformam Grok e Mixtral em Novas Armas para Ataques com WormGPT

Pesquisadores de cibersegurança descobriram novas variantes maliciosas de IA baseadas no WormGPT, que exploram modelos comerciais como Grok e Mixtral por meio de técnicas avançadas de jailbreak. Disponíveis em fóruns clandestinos desde o início de 2025, essas ferramentas permitem que cibercriminosos gerem e-mails de phishing convincentes, scripts maliciosos e ataques automatizados com precisão inédita. As descobertas revelam como agentes de ameaça estão reaproveitando sistemas legítimos de IA em vez de criar modelos personalizados do zero.
Cibercriminosos Transformam Grok e Mixtral em Novas Armas para Ataques com WormGPT

Pesquisadores de cibersegurança identificaram variantes alarmantes da notória ferramenta de IA maliciosa WormGPT, que agora utilizam grandes modelos de linguagem (LLMs) comerciais da xAI e da Mistral AI para impulsionar ataques cibernéticos sofisticados.

A equipe de inteligência de ameaças da Cato Networks identificou duas variantes inéditas do WormGPT sendo comercializadas em fóruns clandestinos como o BreachForums. As variantes, desenvolvidas por usuários conhecidos como "xzin0vich" e "keanu", surgiram em outubro de 2024 e fevereiro de 2025, respectivamente. Diferentemente do WormGPT original de 2023, que utilizava o modelo open-source GPT-J, essas novas versões representam uma mudança fundamental de abordagem.

Em vez de construir modelos de IA personalizados do zero, os cibercriminosos criaram camadas sofisticadas em torno de sistemas comerciais de IA já existentes. Por meio de técnicas de jailbreak e manipulação de prompts de sistema, eles conseguiram contornar as proteções de segurança dos modelos Grok, de Elon Musk, e Mixtral, da Mistral, forçando-os a gerar conteúdos maliciosos sem restrições éticas.

"Essas novas versões do WormGPT não são modelos feitos sob medida desde o início, mas sim o resultado de agentes de ameaça adaptando habilmente LLMs já existentes", explicou Vitaly Simonovich, pesquisador da Cato Networks. Essa abordagem reduz drasticamente a barreira de entrada para cibercriminosos, já que adaptar uma API existente é muito menos complexo do que treinar um LLM malicioso do zero.

Ambas as variantes geram conteúdos nocivos quando solicitadas, incluindo e-mails de phishing convincentes e scripts PowerShell projetados para roubar credenciais de sistemas Windows 11. Elas estão disponíveis por meio de chatbots no Telegram, em regime de assinatura, com preços que variam de US$ 8 a US$ 100 por mês.

A evolução do WormGPT sinaliza uma tendência mais ampla no cibercrime, em que agentes de ameaça utilizam cada vez mais serviços legítimos de IA para fins maliciosos, por meio de engenharia sofisticada de prompts. Especialistas em segurança recomendam a implementação de estratégias defensivas abrangentes, incluindo sistemas avançados de detecção de ameaças com análise comportamental, controles de acesso mais rígidos e treinamentos de conscientização em segurança que incluam simulações de phishing geradas por IA.

À medida que a IA se torna tanto uma ferramenta de ataque quanto um alvo, as organizações precisam se preparar para essa nova realidade, em que as maiores ameaças de IA podem vir de dentro das plataformas mais populares.

Source:

Latest News