Den 22 maj 2025 presenterade CISA och flera säkerhetspartners ett gemensamt cybersäkerhetsinformationsblad med titeln "AI-datasäkerhet: Bästa praxis för att skydda data som används för att träna och driva AI-system", vilket markerar ett viktigt steg för att hantera växande oro kring sårbarheter inom AI-säkerhet.
Vägledningen, som är samförfattad av National Security Agency's Artificial Intelligence Security Center (AISC), Federal Bureau of Investigation (FBI) samt internationella partners såsom Australiens ACSC, Nya Zeelands NCSC-NZ och Storbritanniens NCSC, understryker att datasäkerhet är grundläggande för att säkerställa tillförlitliga AI-system.
Informationsbladet beskriver centrala risker som kan uppstå på grund av brister i datasäkerhet och dataintegritet genom hela AI-livscykeln, från utveckling och testning till implementering och drift. Det innehåller detaljerade rekommendationer för att skydda den data som driver AI-system, inklusive att införa robusta dataskyddsåtgärder som kryptering, digitala signaturer och spårbarhet av datakällor.
Vägledningen tar särskilt upp tre betydande områden av datasäkerhetsrisker i AI-system: sårbarheter i dataleveranskedjan, illvilligt modifierad ("förgiftad") data och datadrift. För varje riskområde ges detaljerade strategier för riskminimering och bästa praxis.
"I takt med att AI-system blir alltmer integrerade i samhällsviktiga verksamheter måste organisationer vara vaksamma och vidta medvetna åtgärder för att skydda den data som driver systemen," står det i CISA:s varning. Myndigheten rekommenderar att organisationer inför robusta dataskyddsåtgärder, hanterar risker proaktivt och stärker sin övervakning, hotdetektering och nätverksförsvar.
Denna vägledning är särskilt relevant för försvarsindustrin, ägare av nationella säkerhetssystem, statliga myndigheter och operatörer av kritisk infrastruktur som i allt högre grad implementerar AI-system i känsliga miljöer. Genom att följa de rekommenderade säkerhetsrutinerna kan organisationer bättre skydda sina AI-system mot potentiella hot och samtidigt upprätthålla noggrannhet och integritet i AI-baserade resultat.