Pe 22 mai 2025, CISA și mai mulți parteneri din domeniul securității au lansat în comun o Fișă Informativă de Securitate Cibernetică intitulată „Securitatea datelor AI: cele mai bune practici pentru protejarea datelor utilizate la antrenarea și operarea sistemelor AI”, marcând un pas important în abordarea preocupărilor tot mai mari legate de vulnerabilitățile de securitate ale inteligenței artificiale.
Ghidul, redactat în colaborare cu Artificial Intelligence Security Center (AISC) al Agenției Naționale de Securitate (NSA), Biroul Federal de Investigații (FBI) și parteneri internaționali precum ACSC din Australia, NCSC-NZ din Noua Zeelandă și NCSC din Regatul Unit, subliniază că securitatea datelor este fundamentală pentru asigurarea fiabilității sistemelor AI.
Fișa informativă prezintă principalele riscuri care pot apărea din probleme de securitate și integritate a datelor în toate fazele ciclului de viață AI, de la dezvoltare și testare până la implementare și operare. Sunt oferite recomandări detaliate pentru protejarea datelor care alimentează sistemele AI, inclusiv implementarea unor măsuri robuste de protecție a datelor precum criptarea, semnăturile digitale și urmărirea provenienței datelor.
Ghidul abordează în mod specific trei domenii semnificative de risc privind securitatea datelor în sistemele AI: vulnerabilitățile lanțului de aprovizionare cu date, datele modificate în mod malițios („otrăvite”) și deriva datelor. Pentru fiecare categorie de risc, documentul oferă strategii de reducere a riscurilor și cele mai bune practici.
„Pe măsură ce sistemele AI devin tot mai integrate în operațiuni esențiale, organizațiile trebuie să rămână vigilente și să ia măsuri deliberate pentru a securiza datele care le alimentează”, se arată în alerta CISA. Agenția recomandă organizațiilor să adopte măsuri solide de protecție a datelor, să gestioneze proactiv riscurile și să consolideze capacitățile de monitorizare, detectare a amenințărilor și apărare a rețelelor.
Acest ghid este deosebit de relevant pentru bazele industriale de apărare, deținătorii de sisteme de securitate națională, agențiile federale și operatorii de infrastructuri critice care implementează tot mai des sisteme AI în medii sensibile. Prin aplicarea practicilor de securitate recomandate, organizațiile își pot proteja mai eficient sistemele AI împotriva amenințărilor potențiale, menținând totodată acuratețea și integritatea rezultatelor generate de inteligența artificială.