22 мая 2025 года CISA и ряд партнёров по безопасности представили совместный информационный лист по кибербезопасности под названием «Безопасность данных ИИ: лучшие практики по защите данных, используемых для обучения и эксплуатации систем ИИ», что стало важным шагом в ответ на растущие опасения по поводу уязвимостей ИИ.
Документ, подготовленный совместно с Центром безопасности искусственного интеллекта Агентства национальной безопасности (AISC), Федеральным бюро расследований (ФБР), а также международными партнёрами, включая Австралийский центр кибербезопасности (ACSC), Национальный центр кибербезопасности Новой Зеландии (NCSC-NZ) и Национальный центр кибербезопасности Великобритании (NCSC), подчёркивает, что безопасность данных является основой для надёжности систем ИИ.
Информационный лист описывает ключевые риски, связанные с безопасностью и целостностью данных на всех этапах жизненного цикла ИИ — от разработки и тестирования до внедрения и эксплуатации. В документе приводятся подробные рекомендации по защите данных, лежащих в основе работы ИИ, включая внедрение надёжных мер защиты, таких как шифрование, цифровые подписи и отслеживание происхождения данных.
Руководство отдельно рассматривает три основные области рисков для безопасности данных в системах ИИ: уязвимости в цепочке поставок данных, злонамеренно изменённые («отравленные») данные и дрейф данных. Для каждой из этих областей представлены детальные стратегии снижения рисков и лучшие практики.
«По мере того как системы ИИ всё глубже интегрируются в ключевые процессы, организациям необходимо сохранять бдительность и предпринимать целенаправленные шаги для защиты данных, на которых они основаны», — говорится в предупреждении CISA. Агентство рекомендует организациям внедрять надёжные меры защиты данных, проактивно управлять рисками, а также усиливать мониторинг, обнаружение угроз и защиту сетей.
Данное руководство особенно актуально для операторов оборонно-промышленного комплекса, владельцев национальных систем безопасности, федеральных агентств и операторов критической инфраструктуры, которые всё чаще внедряют системы ИИ в чувствительных средах. Внедряя рекомендованные меры безопасности, организации смогут лучше защитить свои ИИ-системы от потенциальных угроз, сохраняя при этом точность и целостность результатов, получаемых с помощью искусственного интеллекта.