menu
close

Ciberdelincuentes aprovechan Grok y Mixtral para nuevos ataques de WormGPT

Investigadores en ciberseguridad han descubierto nuevas variantes maliciosas de WormGPT que explotan modelos comerciales como Grok y Mixtral mediante sofisticadas técnicas de jailbreaking. Estas herramientas, disponibles en foros clandestinos desde principios de 2025, permiten a los ciberdelincuentes generar correos de phishing convincentes, scripts maliciosos y ciberataques automatizados con una precisión sin precedentes. Los hallazgos revelan cómo los actores de amenazas están reutilizando sistemas legítimos de IA en lugar de construir modelos personalizados desde cero.
Ciberdelincuentes aprovechan Grok y Mixtral para nuevos ataques de WormGPT

Investigadores en ciberseguridad han detectado alarmantes variantes nuevas de la notoria herramienta de IA maliciosa WormGPT, que ahora aprovecha modelos comerciales de lenguaje de gran tamaño (LLMs) de xAI y Mistral AI para potenciar sofisticados ciberataques.

El equipo de inteligencia de amenazas de Cato Networks identificó dos variantes de WormGPT no reportadas previamente que se están vendiendo en foros clandestinos como BreachForums. Estas variantes, desarrolladas por usuarios conocidos como "xzin0vich" y "keanu", aparecieron en octubre de 2024 y febrero de 2025, respectivamente. A diferencia de la WormGPT original de 2023, que utilizaba el modelo de código abierto GPT-J, estas nuevas iteraciones representan un cambio fundamental en el enfoque.

En lugar de construir modelos de IA personalizados desde cero, los ciberdelincuentes han creado envoltorios sofisticados alrededor de sistemas comerciales de IA ya existentes. Mediante técnicas de jailbreaking y manipulación de prompts del sistema, han logrado eludir los mecanismos de seguridad en los modelos Grok de Elon Musk y Mixtral de Mistral, forzándolos a generar contenido malicioso sin restricciones éticas.

"Estas nuevas iteraciones de WormGPT no son modelos hechos a la medida desde cero, sino el resultado de actores de amenazas que adaptan hábilmente LLMs existentes", explicó Vitaly Simonovich, investigador de Cato Networks. Este enfoque reduce drásticamente la barrera de entrada para los ciberdelincuentes, ya que adaptar una API existente es mucho menos complejo que entrenar un LLM malicioso desde cero.

Ambas variantes generan exitosamente contenido dañino cuando se les solicita, incluyendo correos de phishing convincentes y scripts de PowerShell diseñados para robar credenciales en sistemas Windows 11. Están disponibles a través de chatbots en Telegram bajo un esquema de suscripción, con precios que varían entre $8 y $100 dólares al mes.

La evolución de WormGPT señala una tendencia más amplia en el cibercrimen, donde los actores de amenazas aprovechan cada vez más servicios legítimos de IA para fines maliciosos mediante sofisticadas técnicas de ingeniería de prompts. Los expertos en seguridad recomiendan implementar estrategias defensivas integrales, incluyendo sistemas de detección de amenazas mejorados con análisis de comportamiento, controles de acceso más estrictos y capacitación en concientización de seguridad que incorpore simulaciones de phishing generadas por IA.

A medida que la IA se convierte tanto en una herramienta de ataque como en un objetivo en sí misma, las organizaciones deben prepararse para esta nueva realidad, donde las mayores amenazas de IA pueden provenir de las plataformas más populares.

Source:

Latest News