menu
close

CISA запускает критически важную структуру для обеспечения безопасности данных ИИ

Агентство по кибербезопасности и защите инфраструктуры (CISA) совместно с АНБ, ФБР и международными партнёрами 22 мая 2025 года выпустило комплексное руководство по безопасности данных ИИ. Информационный лист подчёркивает ключевую роль защиты данных на всех этапах жизненного цикла ИИ и предлагает лучшие практики для организаций по защите конфиденциальных данных в системах искусственного интеллекта. Операторам оборонно-промышленного комплекса, федеральным агентствам и операторам критической инфраструктуры рекомендуется внедрять предложенные стратегии для обеспечения точности, целостности и надёжности результатов работы ИИ.
CISA запускает критически важную структуру для обеспечения безопасности данных ИИ

22 мая 2025 года CISA и ряд партнёров по безопасности представили совместный информационный лист по кибербезопасности под названием «Безопасность данных ИИ: лучшие практики по защите данных, используемых для обучения и эксплуатации систем ИИ», что стало важным шагом в ответ на растущие опасения по поводу уязвимостей ИИ.

Документ, подготовленный совместно с Центром безопасности искусственного интеллекта Агентства национальной безопасности (AISC), Федеральным бюро расследований (ФБР), а также международными партнёрами, включая Австралийский центр кибербезопасности (ACSC), Национальный центр кибербезопасности Новой Зеландии (NCSC-NZ) и Национальный центр кибербезопасности Великобритании (NCSC), подчёркивает, что безопасность данных является основой для надёжности систем ИИ.

Информационный лист описывает ключевые риски, связанные с безопасностью и целостностью данных на всех этапах жизненного цикла ИИ — от разработки и тестирования до внедрения и эксплуатации. В документе приводятся подробные рекомендации по защите данных, лежащих в основе работы ИИ, включая внедрение надёжных мер защиты, таких как шифрование, цифровые подписи и отслеживание происхождения данных.

Руководство отдельно рассматривает три основные области рисков для безопасности данных в системах ИИ: уязвимости в цепочке поставок данных, злонамеренно изменённые («отравленные») данные и дрейф данных. Для каждой из этих областей представлены детальные стратегии снижения рисков и лучшие практики.

«По мере того как системы ИИ всё глубже интегрируются в ключевые процессы, организациям необходимо сохранять бдительность и предпринимать целенаправленные шаги для защиты данных, на которых они основаны», — говорится в предупреждении CISA. Агентство рекомендует организациям внедрять надёжные меры защиты данных, проактивно управлять рисками, а также усиливать мониторинг, обнаружение угроз и защиту сетей.

Данное руководство особенно актуально для операторов оборонно-промышленного комплекса, владельцев национальных систем безопасности, федеральных агентств и операторов критической инфраструктуры, которые всё чаще внедряют системы ИИ в чувствительных средах. Внедряя рекомендованные меры безопасности, организации смогут лучше защитить свои ИИ-системы от потенциальных угроз, сохраняя при этом точность и целостность результатов, получаемых с помощью искусственного интеллекта.

Source:

Latest News