W istotnym kroku na rzecz ustanowienia ustandaryzowanych praktyk bezpieczeństwa dla sztucznej inteligencji, CISA wraz z partnerami opublikowała nowe ramy skupiające się wyłącznie na bezpieczeństwie danych w systemach AI.
Wspólny dokument informacyjny dotyczący cyberbezpieczeństwa, zatytułowany "AI Data Security: Best Practices for Securing Data Used to Train & Operate AI Systems" (Bezpieczeństwo danych AI: najlepsze praktyki w zakresie ochrony danych wykorzystywanych do trenowania i obsługi systemów AI), został wydany 22 maja 2025 roku. Publikacja jest efektem współpracy CISA, Narodowej Agencji Bezpieczeństwa (NSA), Federalnego Biura Śledczego (FBI) oraz międzynarodowych partnerów, w tym agencji cyberbezpieczeństwa z Australii, Nowej Zelandii i Wielkiej Brytanii.
Wytyczne podkreślają, że bezpieczeństwo danych stanowi fundament integralności systemów AI na każdym etapie ich cyklu życia – od rozwoju i testowania, po wdrożenie i eksploatację. Dokument jest skierowany przede wszystkim do organizacji polegających na systemach AI w codziennej działalności, w tym podmiotów przemysłu obronnego, właścicieli systemów bezpieczeństwa narodowego, agencji federalnych oraz operatorów infrastruktury krytycznej.
Wśród kluczowych zaleceń przewodnik wskazuje m.in. na konieczność pozyskiwania wiarygodnych źródeł danych i śledzenia ich pochodzenia, weryfikacji i utrzymania integralności danych podczas przechowywania i przesyłu, stosowania podpisów cyfrowych do uwierzytelniania zaufanych wersji danych, wykorzystywania zaufanej infrastruktury opartej na architekturze Zero Trust oraz wdrażania właściwej klasyfikacji danych wraz z odpowiednimi kontrolami dostępu.
"W miarę jak systemy AI coraz mocniej integrują się z kluczowymi operacjami, organizacje muszą zachować czujność i podejmować świadome działania w celu ochrony danych, które je napędzają" – czytamy w komunikacie CISA. Zalecane strategie ograniczania ryzyka obejmują wdrożenie solidnych środków ochrony danych, proaktywne zarządzanie zagrożeniami oraz wzmacnianie monitoringu, wykrywania zagrożeń i obrony sieciowej.
Opublikowany dokument rozszerza portfolio zasobów CISA dotyczących bezpieczeństwa AI, obejmujące wcześniejsze wytyczne dotyczące bezpiecznego rozwoju i wdrażania systemów sztucznej inteligencji. Publikacja potwierdza zaangażowanie agencji w analizowanie zarówno szans, jak i potencjalnych zagrożeń, jakie technologie AI niosą dla cyberbezpieczeństwa narodowego oraz ochrony infrastruktury krytycznej.