22 maja 2025 roku CISA oraz kilku partnerów ds. bezpieczeństwa zaprezentowało wspólny dokument informacyjny dotyczący cyberbezpieczeństwa zatytułowany „Bezpieczeństwo danych AI: najlepsze praktyki w zabezpieczaniu danych wykorzystywanych do trenowania i obsługi systemów AI”, stanowiący istotny krok w odpowiedzi na rosnące obawy związane z podatnościami AI.
Wytyczne, współtworzone przez Centrum Bezpieczeństwa Sztucznej Inteligencji Narodowej Agencji Bezpieczeństwa (AISC), Federalne Biuro Śledcze (FBI) oraz międzynarodowych partnerów, w tym australijskie ACSC, nowozelandzkie NCSC-NZ i brytyjskie NCSC, podkreślają, że bezpieczeństwo danych jest podstawą niezawodnych systemów AI.
Dokument opisuje kluczowe zagrożenia wynikające z problemów z bezpieczeństwem i integralnością danych na wszystkich etapach cyklu życia AI – od rozwoju i testowania, po wdrożenie i eksploatację. Zawiera szczegółowe rekomendacje dotyczące ochrony danych zasilających systemy AI, w tym wdrażania solidnych środków ochrony, takich jak szyfrowanie, podpisy cyfrowe oraz śledzenie pochodzenia danych.
Przewodnik szczegółowo omawia trzy główne obszary ryzyka w zakresie bezpieczeństwa danych w systemach AI: podatności łańcucha dostaw danych, złośliwie zmodyfikowane („zatrute”) dane oraz dryf danych. Dla każdego z tych zagrożeń dokument prezentuje szczegółowe strategie łagodzenia ryzyka oraz najlepsze praktyki.
„W miarę jak systemy AI stają się coraz bardziej zintegrowane z kluczowymi operacjami, organizacje muszą zachować czujność i podejmować świadome działania w celu zabezpieczenia danych, które je napędzają” – czytamy w komunikacie CISA. Agencja zaleca wdrażanie solidnych środków ochrony danych, proaktywne zarządzanie ryzykiem oraz wzmacnianie monitoringu, wykrywania zagrożeń i obrony sieciowej.
Wytyczne te są szczególnie istotne dla baz przemysłu obronnego, właścicieli systemów bezpieczeństwa narodowego, agencji federalnych oraz operatorów infrastruktury krytycznej, którzy coraz częściej wdrażają systemy AI w środowiskach wrażliwych. Wdrożenie rekomendowanych praktyk pozwoli lepiej chronić systemy AI przed potencjalnymi zagrożeniami, jednocześnie utrzymując dokładność i integralność wyników generowanych przez sztuczną inteligencję.