Den 22. maj 2025 offentliggjorde CISA og flere sikkerhedspartnere et fælles cybersikkerheds-informationsark med titlen "AI-datasikkerhed: Bedste praksis for sikring af data brugt til træning og drift af AI-systemer", hvilket markerer et vigtigt skridt i håndteringen af de stigende bekymringer om sårbarheder i AI-sikkerheden.
Vejledningen, som er skrevet i samarbejde med National Security Agency's Artificial Intelligence Security Center (AISC), Federal Bureau of Investigation (FBI) samt internationale partnere som Australiens ACSC, New Zealands NCSC-NZ og Storbritanniens NCSC, understreger at datasikkerhed er fundamentalt for at sikre pålidelige AI-systemer.
Informationsarket beskriver centrale risici, der kan opstå som følge af problemer med datasikkerhed og -integritet gennem alle faser af AI-livscyklussen, fra udvikling og test til implementering og drift. Det giver detaljerede anbefalinger til at beskytte de data, der driver AI-systemer, herunder implementering af robuste databeskyttelsesforanstaltninger som kryptering, digitale signaturer og sporing af dataproveniens.
Vejledningen adresserer specifikt tre væsentlige områder for datasikkerhedsrisici i AI-systemer: sårbarheder i datas forsyningskæde, ondsindet ændrede ("forgiftede") data og data-drift. For hvert risikoområde giver dokumentet detaljerede afbødningsstrategier og bedste praksis.
"Efterhånden som AI-systemer bliver mere integrerede i essentielle operationer, skal organisationer forblive årvågne og tage bevidste skridt for at sikre de data, der driver dem," udtaler CISA i sin advarsel. Agenturet anbefaler, at organisationer indfører solide databeskyttelsesforanstaltninger, håndterer risici proaktivt og styrker overvågning, trusselsdetektion og netværksforsvar.
Denne vejledning er især relevant for forsvarsindustrien, ejere af nationale sikkerhedssystemer, statslige myndigheder og operatører af kritisk infrastruktur, som i stigende grad implementerer AI-systemer i følsomme miljøer. Ved at følge de anbefalede sikkerhedspraksisser kan organisationer bedre beskytte deres AI-systemer mod potentielle trusler og samtidig opretholde nøjagtigheden og integriteten af AI-drevne resultater.