La rápida integración de la inteligencia artificial en infraestructuras críticas ha generado un panorama de seguridad alarmante, según expertos en ciberseguridad citados en el último RISKS Forum Digest publicado el 17 de mayo de 2025.
El Global Cybersecurity Outlook 2025 del Foro Económico Mundial destaca que, aunque el 66% de las organizaciones considera la IA como el mayor factor de cambio en ciberseguridad de este año, solo el 37% ha implementado salvaguardas para evaluar las herramientas de IA antes de su despliegue. Esta desconexión entre conciencia y acción ha generado vulnerabilidades significativas en todos los sectores.
"Las organizaciones y sistemas que no se mantienen al ritmo de las amenazas habilitadas por IA corren el riesgo de convertirse en puntos de mayor fragilidad dentro de las cadenas de suministro, debido a su mayor exposición potencial a vulnerabilidades y su posterior explotación", advirtió un portavoz del Centro Nacional de Ciberseguridad del Reino Unido (NCSC) en su último informe. El NCSC predice que, para 2027, los atacantes potenciados por IA reducirán aún más el tiempo entre el descubrimiento de una vulnerabilidad y su explotación, un plazo que ya se ha acortado a tan solo unos días.
Los profesionales de la ciberseguridad están especialmente preocupados por los ataques de inyección de prompts contra grandes modelos de lenguaje (LLM). En una reciente prueba de penetración citada por investigadores en seguridad, el chatbot de IA de una tienda de velas fue comprometido mediante técnicas de ingeniería de prompts, generando riesgos de seguridad, integridad y negocio. El ataque permitió extraer datos del sistema y manipular las respuestas del chatbot, demostrando cómo implementaciones aparentemente inocuas de IA pueden convertirse en graves pasivos de seguridad.
Las vulnerabilidades en la cadena de suministro representan otra gran preocupación, ya que el 54% de las grandes organizaciones las identifica como la mayor barrera para lograr la resiliencia cibernética. La creciente complejidad de las cadenas de suministro, junto con la limitada visibilidad sobre las prácticas de seguridad de los proveedores, ha creado un entorno donde los sistemas de IA pueden verse comprometidos a través de componentes de terceros.
La aparición de la IA agéntica—sistemas capaces de tomar decisiones y ejecutar tareas complejas de forma autónoma—se espera que transforme el panorama de amenazas en 2025. "Antes nos centrábamos en asistentes de IA que respondían a las indicaciones de los usuarios. Ahora estamos ante herramientas de IA agéntica que pueden tomar decisiones y realizar tareas complicadas de manera independiente", explicó Hao Yang, vicepresidente de inteligencia artificial en Splunk, empresa propiedad de Cisco.
Los expertos recomiendan que las organizaciones implementen políticas formales de seguridad en IA, realicen modelado de amenazas antes del despliegue, reduzcan sistemáticamente la superficie de ataque y aseguren que los proveedores cuenten con programas activos de mejora de la seguridad. Además, la formación continua de los equipos de seguridad es esencial, ya que los ataques impulsados por IA evolucionan más allá de los mecanismos de defensa tradicionales.
Como señaló un investigador de seguridad en el RISKS Forum: "El cambio no consiste solo en defenderse de los ataques potenciados por IA, sino en reconocer que nuestros propios sistemas de IA se han convertido en objetivos principales."