Investigadores de cibersegurança revelaram novas variantes alarmantes da notória ferramenta maliciosa de IA WormGPT, que agora recorrem a modelos comerciais de linguagem natural (LLMs) da xAI e da Mistral AI para potenciar ataques cibernéticos sofisticados.
A equipa de inteligência de ameaças da Cato Networks identificou duas variantes do WormGPT até agora não reportadas, que estão a ser vendidas em fóruns clandestinos como o BreachForums. As variantes, desenvolvidas por utilizadores conhecidos como "xzin0vich" e "keanu", surgiram respetivamente em outubro de 2024 e fevereiro de 2025. Ao contrário do WormGPT original de 2023, que utilizava o modelo open-source GPT-J, estas novas iterações representam uma mudança fundamental de abordagem.
Em vez de desenvolverem modelos de IA personalizados de raiz, os cibercriminosos criaram camadas sofisticadas sobre sistemas comerciais de IA já existentes. Através de técnicas de jailbreaking e manipulação de prompts de sistema, conseguiram contornar as barreiras de segurança dos modelos Grok, de Elon Musk, e Mixtral, da Mistral, forçando-os a gerar conteúdos maliciosos sem restrições éticas.
"Estas novas iterações do WormGPT não são modelos desenvolvidos de raiz, mas sim o resultado de agentes de ameaça a adaptarem de forma habilidosa LLMs já existentes", explicou Vitaly Simonovich, investigador da Cato Networks. Esta abordagem reduz drasticamente a barreira de entrada para os cibercriminosos, uma vez que adaptar uma API existente é muito menos complexo do que treinar um LLM malicioso de raiz.
Ambas as variantes conseguem gerar conteúdos nocivos quando solicitadas, incluindo e-mails de phishing convincentes e scripts PowerShell concebidos para roubar credenciais em sistemas Windows 11. Estão disponíveis através de chatbots no Telegram, mediante subscrição, com preços que variam entre 8 e 100 dólares por mês.
A evolução do WormGPT sinaliza uma tendência mais ampla no cibercrime, em que os agentes de ameaça recorrem cada vez mais a serviços legítimos de IA para fins maliciosos, através de engenharia de prompts sofisticada. Especialistas em segurança recomendam a implementação de estratégias defensivas abrangentes, incluindo sistemas avançados de deteção de ameaças com análise comportamental, controlos de acesso reforçados e formação de sensibilização para a segurança que inclua simulações de phishing geradas por IA.
À medida que a IA se torna simultaneamente uma ferramenta de ataque e um alvo em si mesma, as organizações devem preparar-se para esta nova realidade, onde as maiores ameaças de IA podem surgir a partir das próprias plataformas mais populares.