El 22 de mayo de 2025, la CISA y varios socios en materia de seguridad presentaron conjuntamente una Hoja de Información sobre Ciberseguridad titulada "Seguridad de los datos en IA: Buenas prácticas para proteger los datos utilizados en el entrenamiento y funcionamiento de sistemas de IA", marcando un paso significativo para abordar las crecientes preocupaciones sobre las vulnerabilidades de seguridad en inteligencia artificial.
La guía, redactada conjuntamente con el Centro de Seguridad de Inteligencia Artificial (AISC) de la Agencia de Seguridad Nacional (NSA), el Buró Federal de Investigación (FBI) y socios internacionales como el ACSC de Australia, el NCSC-NZ de Nueva Zelanda y el NCSC del Reino Unido, subraya que la seguridad de los datos es fundamental para garantizar la fiabilidad de los sistemas de IA.
El documento expone los principales riesgos derivados de problemas de seguridad e integridad de los datos en todas las fases del ciclo de vida de la IA, desde el desarrollo y las pruebas hasta el despliegue y la operación. Ofrece recomendaciones detalladas para proteger los datos que alimentan los sistemas de IA, incluyendo la implementación de medidas sólidas de protección como el cifrado, las firmas digitales y el seguimiento de la procedencia de los datos.
La guía aborda específicamente tres áreas clave de riesgos para la seguridad de los datos en sistemas de IA: vulnerabilidades en la cadena de suministro de datos, datos modificados maliciosamente ("envenenados") y deriva de datos. Para cada uno de estos riesgos, el documento proporciona estrategias de mitigación detalladas y buenas prácticas.
"A medida que los sistemas de IA se integran cada vez más en operaciones esenciales, las organizaciones deben permanecer alerta y tomar medidas deliberadas para proteger los datos que los sustentan", señala la alerta de la CISA. La agencia recomienda a las organizaciones adoptar medidas sólidas de protección de datos, gestionar los riesgos de forma proactiva y reforzar las capacidades de monitorización, detección de amenazas y defensa de redes.
Esta guía resulta especialmente relevante para las bases industriales de defensa, los propietarios de sistemas de seguridad nacional, los organismos federales y los operadores de infraestructuras críticas, que están desplegando sistemas de IA en entornos cada vez más sensibles. Al aplicar las prácticas de seguridad recomendadas, las organizaciones podrán proteger mejor sus sistemas de IA frente a amenazas potenciales, manteniendo la precisión e integridad de los resultados impulsados por la inteligencia artificial.