menu
close

Пропуските в сигурността на ИИ се задълбочават с еволюцията на атаките през 2025 г.

Последните открития разкриват, че критични уязвимости в сигурността на изкуствения интелект се експлоатират с безпрецедентна скорост, а организациите изпитват затруднения при внедряването на адекватни защитни мерки. Националният център за киберсигурност на Обединеното кралство предупреждава, че до 2027 г. нападателите, използващи ИИ, ще съкратят още повече времето за експлоатация на уязвимости, докато едва 37% от организациите разполагат с подходящи протоколи за оценка на сигурността на ИИ. Уязвимостите във веригите на доставки и атаките чрез подмяна на инструкции остават основни притеснения на фона на ускореното навлизане на ИИ във всички индустрии.
Пропуските в сигурността на ИИ се задълбочават с еволюцията на атаките през 2025 г.

Бързата интеграция на изкуствения интелект в критичната инфраструктура създава тревожна картина за сигурността, според експерти по киберсигурност, цитирани в последния брой на RISKS Forum Digest от 17 май 2025 г.

Глобалният доклад за киберсигурност на Световния икономически форум за 2025 г. подчертава, че въпреки че 66% от организациите определят ИИ като най-големия фактор за промяна в киберсигурността тази година, едва 37% са внедрили мерки за оценка на ИИ инструментите преди въвеждането им. Този разрив между осъзнаването и действията създава значителни уязвимости в различни индустрии.

„Организациите и системите, които не успяват да се адаптират към заплахите, базирани на ИИ, рискуват да се превърнат в още по-слаби звена във веригите на доставки, поради повишената си експозиция към уязвимости и последваща експлоатация“, предупреждава говорител на Националния център за киберсигурност на Обединеното кралство (NCSC) в последния им доклад. NCSC прогнозира, че до 2027 г. нападателите, използващи ИИ, ще съкратят още повече времето между откриването и експлоатацията на уязвимости – период, който вече се измерва в дни.

Професионалистите по киберсигурност са особено обезпокоени от атаките чрез подмяна на инструкции (prompt injection) срещу големи езикови модели (LLM). В скорошен тест за проникване, цитиран от изследователи по сигурността, чатбот на магазин за свещи е бил компрометиран чрез манипулиране на инструкциите, което е довело до рискове за сигурността, безопасността и бизнеса. Атаката е позволила извличане на системни данни и манипулиране на отговорите на чатбота, демонстрирайки как на пръв поглед безобидни ИИ решения могат да се превърнат в сериозни уязвимости.

Уязвимостите във веригите на доставки представляват друг основен проблем – 54% от големите организации ги определят като най-голямата пречка пред постигането на киберустойчивост. Увеличаващата се сложност на веригите на доставки, съчетана с ограничена видимост върху практиките по сигурност на доставчиците, създава среда, в която ИИ системите могат да бъдат компрометирани чрез външни компоненти.

Появата на агентен ИИ – системи, които могат самостоятелно да вземат решения и изпълняват сложни задачи – се очаква да трансформира заплахите през 2025 г. „Досега се фокусирахме върху ИИ асистенти, които реагират на потребителски инструкции. Сега разглеждаме агентни ИИ инструменти, които могат самостоятелно да вземат решения и да изпълняват сложни задачи“, обяснява Хао Янг, вицепрезидент по изкуствен интелект в Splunk, собственост на Cisco.

Експертите препоръчват организациите да въведат формални политики за сигурност на ИИ, да провеждат моделиране на заплахите преди внедряване, системно да намаляват повърхността на атаките и да изискват от доставчиците активни програми за подобряване на сигурността. Освен това, непрекъснатото обучение на екипите по сигурност е от ключово значение, тъй като ИИ-базираните атаки се развиват отвъд традиционните защитни механизми.

Както отбелязва един изследовател по сигурността в RISKS Forum: „Промяната не е само в защитата срещу атаки, задвижвани от ИИ – става въпрос и за осъзнаването, че самите ни ИИ системи вече са основни мишени.“

Source: Seclists.org

Latest News