Op 22 mei 2025 presenteerden CISA en diverse beveiligingspartners gezamenlijk een Cybersecurity Information Sheet getiteld "AI Data Security: Best Practices for Securing Data Used to Train & Operate AI Systems". Dit markeert een belangrijke stap in het adresseren van de groeiende zorgen rondom kwetsbaarheden in AI-beveiliging.
De richtlijn, mede opgesteld door het Artificial Intelligence Security Center (AISC) van de National Security Agency, de Federal Bureau of Investigation (FBI) en internationale partners zoals het Australische ACSC, het Nieuw-Zeelandse NCSC-NZ en het Britse NCSC, onderstreept dat databeveiliging fundamenteel is voor betrouwbare AI-systemen.
Het informatieblad beschrijft de belangrijkste risico’s die kunnen ontstaan door problemen met databeveiliging en -integriteit in alle fasen van de AI-levenscyclus, van ontwikkeling en testen tot uitrol en operatie. Het biedt gedetailleerde aanbevelingen om de data die AI-systemen aandrijft te beschermen, waaronder het implementeren van robuuste databeschermingsmaatregelen zoals encryptie, digitale handtekeningen en het bijhouden van data-oorsprong (provenance).
De gids gaat specifiek in op drie belangrijke risicogebieden voor databeveiliging in AI-systemen: kwetsbaarheden in de datasupplychain, kwaadaardig gemodificeerde ("vergiftigde") data en data drift. Voor elk risicogebied worden gedetailleerde mitigatiestrategieën en best practices aangereikt.
"Nu AI-systemen steeds meer worden geïntegreerd in essentiële operaties, moeten organisaties waakzaam blijven en doelgerichte stappen zetten om de data die deze systemen aandrijft te beveiligen," aldus het CISA-alarm. De instantie raadt organisaties aan om robuuste databeschermingsmaatregelen te nemen, risico’s proactief te beheren en monitoring, dreigingsdetectie en netwerkverdediging te versterken.
Deze richtlijn is met name relevant voor de defensie-industrie, eigenaren van nationale veiligheidssystemen, federale instanties en beheerders van kritieke infrastructuur, die AI-systemen steeds vaker inzetten in gevoelige omgevingen. Door de aanbevolen beveiligingspraktijken te implementeren, kunnen organisaties hun AI-systemen beter beschermen tegen potentiële dreigingen en tegelijkertijd de nauwkeurigheid en integriteit van AI-gedreven uitkomsten behouden.