El 22 de mayo de 2025, CISA y varios socios de seguridad presentaron una Hoja Informativa Conjunta de Ciberseguridad titulada "Seguridad de Datos en IA: Mejores Prácticas para Proteger los Datos Utilizados en el Entrenamiento y Operación de Sistemas de IA", marcando un paso significativo para abordar las crecientes preocupaciones sobre las vulnerabilidades de seguridad en inteligencia artificial.
La guía, coescrita por el Centro de Seguridad en Inteligencia Artificial (AISC) de la Agencia de Seguridad Nacional (NSA), la Oficina Federal de Investigaciones (FBI) y socios internacionales como el ACSC de Australia, el NCSC-NZ de Nueva Zelanda y el NCSC del Reino Unido, enfatiza que la seguridad de los datos es fundamental para garantizar sistemas de IA confiables.
La hoja informativa describe los principales riesgos que pueden surgir debido a problemas de seguridad e integridad de los datos en todas las fases del ciclo de vida de la IA, desde el desarrollo y pruebas hasta el despliegue y operación. Ofrece recomendaciones detalladas para proteger los datos que alimentan los sistemas de IA, incluyendo la implementación de medidas sólidas de protección como cifrado, firmas digitales y seguimiento de la procedencia de los datos.
La guía aborda específicamente tres áreas significativas de riesgo en la seguridad de datos para sistemas de IA: vulnerabilidades en la cadena de suministro de datos, datos modificados maliciosamente ("envenenados") y deriva de datos. Para cada área de riesgo, el documento proporciona estrategias de mitigación y mejores prácticas detalladas.
"A medida que los sistemas de IA se integran cada vez más en operaciones esenciales, las organizaciones deben mantenerse alerta y tomar medidas deliberadas para proteger los datos que los impulsan", señala la alerta de CISA. La agencia recomienda que las organizaciones adopten medidas sólidas de protección de datos, gestionen los riesgos de manera proactiva y refuercen sus capacidades de monitoreo, detección de amenazas y defensa de redes.
Esta guía es especialmente relevante para las Bases Industriales de Defensa, propietarios de Sistemas de Seguridad Nacional, agencias federales y operadores de Infraestructura Crítica que están implementando sistemas de IA en entornos sensibles. Al aplicar las prácticas de seguridad recomendadas, las organizaciones pueden proteger mejor sus sistemas de IA frente a amenazas potenciales, manteniendo la precisión e integridad de los resultados impulsados por inteligencia artificial.