Σε μια σημαντική κίνηση για την καθιέρωση τυποποιημένων πρακτικών ασφάλειας στην τεχνητή νοημοσύνη, η CISA και αρκετοί συνεργαζόμενοι φορείς δημοσίευσαν ένα νέο πλαίσιο που εστιάζει ειδικά στην ασφάλεια δεδομένων για συστήματα AI.
Το κοινό Ενημερωτικό Δελτίο Κυβερνοασφάλειας, με τίτλο «Ασφάλεια Δεδομένων AI: Βέλτιστες Πρακτικές για την Ασφάλεια Δεδομένων που Χρησιμοποιούνται για την Εκπαίδευση & Λειτουργία Συστημάτων Τεχνητής Νοημοσύνης», κυκλοφόρησε στις 22 Μαΐου 2025. Το έγγραφο αποτελεί αποτέλεσμα συνεργασίας μεταξύ της CISA, της Εθνικής Υπηρεσίας Ασφαλείας (NSA), του Ομοσπονδιακού Γραφείου Ερευνών (FBI) και διεθνών εταίρων, συμπεριλαμβανομένων φορέων κυβερνοασφάλειας από την Αυστραλία, τη Νέα Ζηλανδία και το Ηνωμένο Βασίλειο.
Η καθοδήγηση υπογραμμίζει ότι η ασφάλεια των δεδομένων είναι θεμελιώδης για την ακεραιότητα των συστημάτων AI σε όλο τον κύκλο ζωής τους - από την ανάπτυξη και τις δοκιμές έως την υλοποίηση και τη λειτουργία. Απευθύνεται ειδικά σε οργανισμούς που βασίζονται σε συστήματα τεχνητής νοημοσύνης για καθημερινές λειτουργίες, όπως οι Βιομηχανικές Βάσεις Άμυνας, ιδιοκτήτες Εθνικών Συστημάτων Ασφαλείας, ομοσπονδιακές υπηρεσίες και διαχειριστές Κρίσιμων Υποδομών.
Μεταξύ των βασικών συστάσεων, ο οδηγός προτρέπει τους οργανισμούς να προμηθεύονται αξιόπιστα δεδομένα και να παρακολουθούν την προέλευσή τους, να επαληθεύουν και να διατηρούν την ακεραιότητα των δεδομένων κατά την αποθήκευση και τη μεταφορά, να χρησιμοποιούν ψηφιακές υπογραφές για την αυθεντικοποίηση αξιόπιστων αναθεωρήσεων δεδομένων, να αξιοποιούν αξιόπιστες υποδομές με αρχιτεκτονική Zero Trust και να εφαρμόζουν σωστή ταξινόμηση δεδομένων με κατάλληλους ελέγχους πρόσβασης.
«Καθώς τα συστήματα τεχνητής νοημοσύνης ενσωματώνονται όλο και περισσότερο σε κρίσιμες λειτουργίες, οι οργανισμοί πρέπει να παραμένουν σε εγρήγορση και να λαμβάνουν στοχευμένα μέτρα για την προστασία των δεδομένων που τα τροφοδοτούν», αναφέρει η ανακοίνωση της CISA. Οι προτεινόμενες στρατηγικές μετριασμού περιλαμβάνουν την υιοθέτηση ισχυρών μέτρων προστασίας δεδομένων, την προληπτική διαχείριση κινδύνων και την ενίσχυση των δυνατοτήτων παρακολούθησης, ανίχνευσης απειλών και άμυνας δικτύου.
Η συγκεκριμένη δημοσίευση ενισχύει το συνεχώς διευρυνόμενο χαρτοφυλάκιο πόρων της CISA για την ασφάλεια της τεχνητής νοημοσύνης, το οποίο περιλαμβάνει προηγούμενες οδηγίες για την ασφαλή ανάπτυξη και υλοποίηση συστημάτων AI. Αντανακλά τη δέσμευση της υπηρεσίας να αντιμετωπίσει τόσο τις ευκαιρίες όσο και τους πιθανούς κινδύνους που φέρνουν οι τεχνολογίες AI στην εθνική κυβερνοασφάλεια και την προστασία κρίσιμων υποδομών.