In een belangrijke stap richting gestandaardiseerde beveiligingspraktijken voor kunstmatige intelligentie hebben CISA en diverse partnerorganisaties een nieuw raamwerk gepubliceerd dat zich specifiek richt op gegevensbeveiliging binnen AI-systemen.
Het gezamenlijke Cybersecurity Information Sheet, getiteld "AI Data Security: Best Practices for Securing Data Used to Train & Operate AI Systems", werd uitgebracht op 22 mei 2025. Dit document is het resultaat van samenwerking tussen CISA, de National Security Agency, het Federal Bureau of Investigation en internationale partners, waaronder cybersecurityorganisaties uit Australië, Nieuw-Zeeland en het Verenigd Koninkrijk.
De richtlijn benadrukt dat gegevensbeveiliging fundamenteel is voor de integriteit van AI-systemen gedurende de gehele levenscyclus – van ontwikkeling en testen tot implementatie en operatie. De aanbevelingen zijn met name gericht op organisaties die voor hun dagelijkse activiteiten afhankelijk zijn van AI-systemen, zoals defensie-industrie, beheerders van nationale veiligheidssystemen, federale instanties en exploitanten van kritieke infrastructuur.
Tot de belangrijkste aanbevelingen behoren het gebruik van betrouwbare databronnen en het bijhouden van de herkomst van data, het verifiëren en waarborgen van gegevensintegriteit tijdens opslag en transport, het toepassen van digitale handtekeningen om vertrouwde dataversies te authenticeren, het inzetten van betrouwbare infrastructuur met Zero Trust-architectuur, en het implementeren van correcte dataclassificatie met passende toegangscontroles.
"Nu AI-systemen steeds meer worden geïntegreerd in essentiële operaties, moeten organisaties waakzaam blijven en gerichte stappen zetten om de data die deze systemen aandrijft te beveiligen," aldus de aankondiging van CISA. De aanbevolen mitigatiestrategieën omvatten het toepassen van sterke gegevensbeschermingsmaatregelen, het proactief beheren van risico’s en het versterken van monitoring, dreigingsdetectie en netwerkverdedigingscapaciteiten.
Deze publicatie bouwt voort op het groeiende portfolio van AI-beveiligingsmiddelen van CISA, waaronder eerdere richtlijnen voor veilige ontwikkeling en implementatie van AI-systemen. Het onderstreept de inzet van het agentschap om zowel de kansen als de potentiële risico’s van AI-technologieën voor nationale cyberveiligheid en bescherming van kritieke infrastructuur aan te pakken.