Den snabba integreringen av artificiell intelligens i kritisk infrastruktur har skapat ett alarmerande säkerhetslandskap, enligt cybersäkerhetsexperter som medverkar i det senaste RISKS Forum Digest, publicerat den 17 maj 2025.
World Economic Forums Global Cybersecurity Outlook 2025 lyfter fram att även om 66 % av organisationerna ser AI som årets största förändringsfaktor inom cybersäkerhet, har endast 37 % infört skyddsåtgärder för att bedöma AI-verktyg innan de tas i bruk. Denna diskrepans mellan medvetenhet och handling har skapat betydande sårbarheter inom flera branscher.
"Organisationer och system som inte håller jämna steg med AI-drivna hot riskerar att bli ytterligare svaga länkar i leverantörskedjan, på grund av ökad exponering för sårbarheter och efterföljande utnyttjande," varnar en talesperson för Storbritanniens National Cyber Security Centre (NCSC) i sin senaste rapport. NCSC förutspår att AI-drivna angripare till 2027 ytterligare kommer att förkorta tiden mellan upptäckt och utnyttjande av sårbarheter, en process som redan nu har krympt till bara några dagar.
Cybersäkerhetsexperter är särskilt oroade över prompt injection-attacker mot stora språkmodeller (LLM). I ett nyligen genomfört penetrationstest, som refereras av säkerhetsforskare, komprometterades en ljusbutiks AI-chattbot genom prompt engineering, vilket skapade säkerhets-, trygghets- och affärsrisker. Attacken möjliggjorde extrahering av systemdata och manipulation av chattbotens svar, vilket visar hur till synes harmlösa AI-implementationer kan bli allvarliga säkerhetsrisker.
Sårbarheter i leverantörskedjan är ett annat stort orosmoment, där 54 % av stora organisationer identifierar dem som det största hindret för att uppnå cyberresiliens. Den ökande komplexiteten i leverantörskedjor, i kombination med begränsad insyn i leverantörers säkerhetsrutiner, har skapat en miljö där AI-system kan komprometteras via tredjepartskomponenter.
Framväxten av agentisk AI—system som kan fatta beslut och utföra komplexa uppgifter autonomt—förväntas förändra hotbilden under 2025. "Tidigare fokuserade vi på AI-assistenter som kunde svara på användarens prompts. Nu tittar vi på agentiska AI-verktyg som själva kan fatta beslut och utföra komplicerade uppgifter," förklarar Hao Yang, VP för artificiell intelligens på Cisco-ägda Splunk.
Experter rekommenderar att organisationer inför formella AI-säkerhetspolicys, genomför hotmodellering innan implementering, systematiskt minskar attackytor och säkerställer att leverantörer har aktiva program för säkerhetsförbättringar. Dessutom är kontinuerlig utbildning av säkerhetsteam avgörande, eftersom AI-drivna attacker utvecklas bortom traditionella försvarsmekanismer.
Som en säkerhetsforskare noterade i RISKS Forum: "Förändringen handlar inte bara om att försvara sig mot AI-drivna attacker—det handlar om att inse att våra egna AI-system har blivit huvudmål."