menu
close

Las brechas de seguridad en IA se amplían a medida que evolucionan los ataques en 2025

Hallazgos recientes revelan que vulnerabilidades críticas de seguridad en inteligencia artificial están siendo explotadas a tasas sin precedentes, mientras las organizaciones luchan por implementar salvaguardas adecuadas. El Centro Nacional de Ciberseguridad del Reino Unido advierte que para 2027, los atacantes potenciados por IA reducirán aún más los tiempos de explotación de vulnerabilidades, mientras que solo el 37% de las organizaciones cuentan con protocolos adecuados de evaluación de seguridad en IA. Las vulnerabilidades en la cadena de suministro y los ataques de inyección de prompts siguen siendo preocupaciones principales a medida que la adopción de IA se acelera en las industrias.
Las brechas de seguridad en IA se amplían a medida que evolucionan los ataques en 2025

La rápida integración de la inteligencia artificial en infraestructuras críticas ha creado un panorama de seguridad alarmante, según expertos en ciberseguridad destacados en la última edición del RISKS Forum Digest, publicada el 17 de mayo de 2025.

El Global Cybersecurity Outlook 2025 del Foro Económico Mundial destaca que, aunque el 66% de las organizaciones considera que la IA es el factor más transformador en ciberseguridad este año, solo el 37% ha implementado salvaguardas para evaluar las herramientas de IA antes de su despliegue. Esta desconexión entre conciencia y acción ha generado vulnerabilidades significativas en diversas industrias.

"Las organizaciones y sistemas que no se mantengan al ritmo de las amenazas potenciadas por IA corren el riesgo de convertirse en puntos de mayor fragilidad dentro de las cadenas de suministro, debido a su mayor exposición potencial a vulnerabilidades y su posterior explotación", advirtió un portavoz del Centro Nacional de Ciberseguridad del Reino Unido (NCSC, por sus siglas en inglés) en su último informe. El NCSC predice que para 2027, los atacantes con IA reducirán aún más el tiempo entre el descubrimiento de una vulnerabilidad y su explotación, periodo que ya se ha acortado a solo unos días.

Los profesionales de ciberseguridad están especialmente preocupados por los ataques de inyección de prompts contra grandes modelos de lenguaje (LLM, por sus siglas en inglés). En una reciente prueba de penetración citada por investigadores de seguridad, el chatbot de IA de una tienda de velas fue comprometido mediante ingeniería de prompts, generando riesgos de seguridad, integridad y negocio. El ataque permitió la extracción de datos del sistema y la manipulación de las respuestas del chatbot, demostrando cómo implementaciones aparentemente inocuas de IA pueden convertirse en serias responsabilidades de seguridad.

Las vulnerabilidades en la cadena de suministro representan otra preocupación importante, con un 54% de las grandes organizaciones identificándolas como la mayor barrera para lograr la resiliencia cibernética. La creciente complejidad de las cadenas de suministro, junto con la limitada visibilidad sobre las prácticas de seguridad de los proveedores, ha creado un entorno donde los sistemas de IA pueden ser comprometidos a través de componentes de terceros.

La aparición de la IA agente—sistemas capaces de tomar decisiones y ejecutar tareas complejas de forma autónoma—se espera que transforme el panorama de amenazas en 2025. "Antes nos enfocábamos en asistentes de IA que respondían a las indicaciones de los usuarios. Ahora estamos viendo herramientas de IA agente que pueden tomar decisiones y realizar tareas complicadas de manera independiente", explicó Hao Yang, vicepresidente de inteligencia artificial en Splunk, empresa propiedad de Cisco.

Los expertos recomiendan que las organizaciones implementen políticas formales de seguridad en IA, realicen modelado de amenazas antes del despliegue, reduzcan sistemáticamente las superficies de ataque y aseguren que los proveedores cuenten con programas activos de mejora de seguridad. Además, la capacitación continua de los equipos de seguridad es esencial, ya que los ataques impulsados por IA evolucionan más allá de los mecanismos de defensa tradicionales.

Como señaló un investigador de seguridad en el RISKS Forum: "El cambio no solo consiste en defenderse de ataques potenciados por IA, sino en reconocer que nuestros propios sistemas de IA se han convertido en objetivos principales."

Source: Seclists.org

Latest News