Brza integracija umjetne inteligencije u kritičnu infrastrukturu stvorila je alarmantnu sigurnosnu situaciju, prema mišljenju stručnjaka za kibernetičku sigurnost predstavljenih u najnovijem izdanju RISKS Forum Digest-a objavljenom 17. svibnja 2025.
Globalni pregled kibernetičke sigurnosti za 2025. Svjetskog ekonomskog foruma ističe kako 66% organizacija smatra da je AI najveći pokretač promjena u kibernetičkoj sigurnosti ove godine, ali samo 37% ih je implementiralo zaštitne mjere za procjenu AI alata prije njihove primjene. Ovaj raskorak između svijesti i djelovanja stvorio je značajne ranjivosti u svim industrijama.
"Organizacije i sustavi koji ne prate tempo prijetnji potpomognutih umjetnom inteligencijom riskiraju da postanu dodatno slabe točke u opskrbnim lancima, zbog povećane izloženosti ranjivostima i njihovom iskorištavanju", upozorava glasnogovornik Nacionalnog centra za kibernetičku sigurnost Ujedinjenog Kraljevstva (NCSC) u svom najnovijem izvješću. NCSC predviđa da će do 2027. napadači potpomognuti AI-jem dodatno smanjiti vrijeme između otkrivanja i iskorištavanja ranjivosti, koje je već skraćeno na svega nekoliko dana.
Stručnjaci za kibernetičku sigurnost posebno su zabrinuti zbog napada prompt injectiona na velike jezične modele (LLM). U nedavnom testiranju sigurnosti, na koje se pozivaju istraživači, AI chatbot trgovine svijećama bio je kompromitiran putem prompt engineeringa, što je stvorilo sigurnosne, sigurnosne i poslovne rizike. Napad je omogućio izvlačenje podataka iz sustava i manipulaciju odgovorima chatbota, pokazujući kako naizgled bezopasne AI implementacije mogu postati ozbiljne sigurnosne prijetnje.
Ranjivosti u opskrbnom lancu predstavljaju još jednu veliku zabrinutost, pri čemu ih 54% velikih organizacija navodi kao najveću prepreku postizanju kibernetičke otpornosti. Sve veća složenost opskrbnih lanaca, u kombinaciji s ograničenom vidljivošću sigurnosnih praksi dobavljača, stvorila je okruženje u kojem AI sustavi mogu biti kompromitirani putem komponenti trećih strana.
Pojava agentičkog AI-ja—sustava koji mogu samostalno donositi odluke i izvršavati složene zadatke—očekuje se da će transformirati krajolik prijetnji u 2025. "Prije smo se fokusirali na AI asistente koji su odgovarali na korisničke upite. Sada gledamo na agentičke AI alate koji mogu samostalno donositi odluke i provoditi kompleksne zadatke", objašnjava Hao Yang, potpredsjednik za umjetnu inteligenciju u Splunku, tvrtki u vlasništvu Cisca.
Stručnjaci preporučuju da organizacije implementiraju formalne politike sigurnosti AI-ja, provode modeliranje prijetnji prije implementacije, sustavno smanjuju površinu napada te osiguraju da dobavljači imaju aktivne programe za unapređenje sigurnosti. Također, kontinuirana edukacija sigurnosnih timova ključna je jer AI-pokretani napadi nadilaze tradicionalne obrambene mehanizme.
Kako je jedan istraživač sigurnosti naveo u RISKS Forumu: "Promjena nije samo u obrani od napada potpomognutih umjetnom inteligencijom—radi se o prepoznavanju da su naši AI sustavi sami postali glavne mete."