Investigadores de ciberseguridad han detectado alarmantes nuevas variantes de la conocida herramienta maliciosa de IA WormGPT, que ahora aprovechan modelos comerciales de lenguaje de gran tamaño (LLM) desarrollados por xAI y Mistral AI para impulsar sofisticados ciberataques.
El equipo de inteligencia de amenazas de Cato Networks identificó dos variantes inéditas de WormGPT que se venden en foros clandestinos como BreachForums. Estas variantes, desarrolladas por usuarios conocidos como "xzin0vich" y "keanu", aparecieron en octubre de 2024 y febrero de 2025, respectivamente. A diferencia del WormGPT original de 2023, que utilizaba el modelo de código abierto GPT-J, estas nuevas iteraciones suponen un cambio fundamental de enfoque.
En lugar de crear modelos de IA personalizados desde cero, los ciberdelincuentes han desarrollado sofisticadas envolturas alrededor de sistemas comerciales de IA ya existentes. Mediante técnicas de jailbreak y la manipulación de indicaciones del sistema, han conseguido eludir las barreras de seguridad de los modelos Grok de Elon Musk y Mixtral de Mistral, obligándolos a generar contenido malicioso sin restricciones éticas.
"Estas nuevas iteraciones de WormGPT no son modelos hechos a medida desde cero, sino el resultado de que los actores de amenazas adaptan hábilmente LLMs existentes", explicó Vitaly Simonovich, investigador de Cato Networks. Este enfoque reduce drásticamente la barrera de entrada para los ciberdelincuentes, ya que adaptar una API existente es mucho menos complejo que entrenar un LLM malicioso desde cero.
Ambas variantes generan con éxito contenido dañino cuando se les solicita, incluidos correos de phishing convincentes y scripts de PowerShell diseñados para robar credenciales en sistemas Windows 11. Se ofrecen a través de chatbots en Telegram bajo un modelo de suscripción, con precios que oscilan entre 8 y 100 dólares al mes.
La evolución de WormGPT señala una tendencia más amplia en el cibercrimen, donde los actores de amenazas aprovechan cada vez más servicios legítimos de IA con fines maliciosos mediante sofisticadas técnicas de ingeniería de prompts. Los expertos en seguridad recomiendan implementar estrategias defensivas integrales, que incluyan sistemas avanzados de detección de amenazas con análisis de comportamiento, controles de acceso más estrictos y una mejor formación en concienciación de seguridad que incorpore simulaciones de phishing generadas por IA.
A medida que la IA se convierte tanto en una herramienta de ataque como en un objetivo en sí misma, las organizaciones deben prepararse para esta nueva realidad, en la que las mayores amenazas de IA pueden surgir desde dentro de las propias plataformas más populares.