Il 22 maggio 2025, CISA e diversi partner per la sicurezza hanno presentato congiuntamente un Cybersecurity Information Sheet intitolato "Sicurezza dei Dati nell’IA: Best Practice per la Protezione dei Dati Utilizzati nell’Addestramento e nel Funzionamento dei Sistemi di IA", segnando un passo significativo nell’affrontare le crescenti preoccupazioni sulle vulnerabilità della sicurezza nell’intelligenza artificiale.
La guida, co-redatta dall’Artificial Intelligence Security Center (AISC) della National Security Agency, dal Federal Bureau of Investigation (FBI) e da partner internazionali come l’ACSC australiana, la NCSC-NZ neozelandese e la NCSC britannica, evidenzia come la sicurezza dei dati sia fondamentale per garantire l’affidabilità dei sistemi di IA.
Il documento illustra i principali rischi che possono derivare da problemi di sicurezza e integrità dei dati in tutte le fasi del ciclo di vita dell’IA, dallo sviluppo e test fino al rilascio e all’operatività. Vengono fornite raccomandazioni dettagliate per proteggere i dati che alimentano i sistemi di IA, tra cui l’implementazione di solide misure di protezione come la crittografia, le firme digitali e il tracciamento della provenienza dei dati.
La guida affronta in particolare tre aree chiave di rischio per la sicurezza dei dati nei sistemi di IA: vulnerabilità nella supply chain dei dati, dati modificati in modo malevolo ("avvelenati") e data drift. Per ciascuna area di rischio, il documento propone strategie di mitigazione dettagliate e best practice.
"Man mano che i sistemi di IA vengono sempre più integrati nelle operazioni essenziali, le organizzazioni devono rimanere vigili e adottare misure deliberate per proteggere i dati che li alimentano", si legge nell’allerta CISA. L’agenzia raccomanda alle organizzazioni di adottare solide misure di protezione dei dati, gestire proattivamente i rischi e rafforzare le capacità di monitoraggio, rilevamento delle minacce e difesa della rete.
Questa guida è particolarmente rilevante per le industrie della difesa, i proprietari di Sistemi di Sicurezza Nazionale, le agenzie federali e gli operatori delle Infrastrutture Critiche che stanno adottando sempre più sistemi di IA in ambienti sensibili. Implementando le pratiche di sicurezza raccomandate, le organizzazioni potranno proteggere meglio i propri sistemi di IA dalle minacce potenziali, mantenendo al contempo accuratezza e integrità dei risultati generati dall’intelligenza artificiale.