menu
close

Пробелы в безопасности ИИ расширяются по мере эволюции атак в 2025 году

Недавние исследования выявили критические уязвимости в безопасности искусственного интеллекта, которые эксплуатируются с беспрецедентной скоростью, а организации испытывают трудности с внедрением адекватных мер защиты. Национальный центр кибербезопасности Великобритании предупреждает, что к 2027 году злоумышленники, использующие ИИ, ещё больше сократят время между обнаружением и эксплуатацией уязвимостей, тогда как только 37% организаций имеют надлежащие протоколы оценки безопасности ИИ. Уязвимости в цепочках поставок и атаки через внедрение подсказок остаются основными проблемами на фоне ускоренного внедрения ИИ в различных отраслях.
Пробелы в безопасности ИИ расширяются по мере эволюции атак в 2025 году

Быстрая интеграция искусственного интеллекта в критическую инфраструктуру создала тревожную картину в сфере кибербезопасности, утверждают эксперты, представленные в последнем выпуске RISKS Forum Digest от 17 мая 2025 года.

В отчёте World Economic Forum «Global Cybersecurity Outlook 2025» отмечается, что хотя 66% организаций считают ИИ главным фактором изменений в кибербезопасности в этом году, лишь 37% внедрили меры для оценки ИИ-инструментов до их запуска. Этот разрыв между осведомлённостью и действиями привёл к значительным уязвимостям во многих отраслях.

«Организации и системы, не успевающие за угрозами, основанными на ИИ, рискуют стать слабыми звеньями в цепочках поставок из-за своей повышенной подверженности уязвимостям и последующей эксплуатации», — предупредил представитель Национального центра кибербезопасности Великобритании (NCSC) в своём последнем докладе. По прогнозу NCSC, к 2027 году злоумышленники, использующие ИИ, ещё больше сократят время между обнаружением и эксплуатацией уязвимостей, которое уже сейчас составляет всего несколько дней.

Особую тревогу у специалистов по кибербезопасности вызывают атаки через внедрение подсказок (prompt injection) в крупные языковые модели (LLM). В ходе недавнего тестирования на проникновение, на которое ссылаются исследователи, чат-бот магазина свечей был скомпрометирован с помощью инженерии подсказок, что привело к рискам для безопасности, надёжности и бизнеса. Атака позволила извлечь системные данные и манипулировать ответами чат-бота, наглядно продемонстрировав, как даже безобидные ИИ-решения могут стать серьёзной угрозой.

Уязвимости в цепочках поставок остаются ещё одной серьёзной проблемой: 54% крупных организаций называют их главным препятствием на пути к киберустойчивости. Рост сложности цепочек поставок и ограниченная прозрачность в отношении практик безопасности поставщиков создают условия, при которых ИИ-системы могут быть скомпрометированы через сторонние компоненты.

Появление агентного ИИ — систем, способных самостоятельно принимать решения и выполнять сложные задачи, — ожидаемо изменит ландшафт угроз в 2025 году. «Раньше мы сосредотачивались на ИИ-ассистентах, реагирующих на запросы пользователей. Теперь мы сталкиваемся с агентными ИИ-инструментами, которые способны самостоятельно принимать решения и выполнять сложные задачи», — пояснил Хао Ян, вице-президент по искусственному интеллекту в принадлежащей Cisco компании Splunk.

Эксперты рекомендуют организациям внедрять формальные политики безопасности ИИ, проводить моделирование угроз до запуска систем, системно сокращать поверхность атаки и требовать от поставщиков наличия активных программ по улучшению безопасности. Кроме того, постоянное обучение команд по безопасности становится критически важным, поскольку атаки с применением ИИ выходят за рамки традиционных методов защиты.

Как отметил один из исследователей в RISKS Forum: «Изменения касаются не только защиты от атак с применением ИИ — важно осознать, что сами наши ИИ-системы становятся основными целями атак».

Source: Seclists.org

Latest News