menu
close

AI-sikkerhedshuller vokser, mens angreb udvikler sig i 2025

Nye fund afslører, at kritiske AI-sikkerhedssårbarheder udnyttes i hidtil uset omfang, mens organisationer kæmper med at implementere tilstrækkelige beskyttelsesforanstaltninger. Det britiske National Cyber Security Centre advarer om, at AI-drevne angribere i 2027 yderligere vil forkorte tiden fra sårbarhedsopdagelse til udnyttelse, mens kun 37 % af organisationerne har ordentlige AI-sikkerhedsvurderingsprotokoller på plads. Sårbarheder i forsyningskæden og prompt injection-angreb forbliver hovedbekymringer, i takt med at AI-implementeringen accelererer på tværs af brancher.
AI-sikkerhedshuller vokser, mens angreb udvikler sig i 2025

Den hurtige integration af kunstig intelligens i kritisk infrastruktur har skabt et alarmerende sikkerhedslandskab, ifølge cybersikkerhedseksperter omtalt i det seneste RISKS Forum Digest, offentliggjort den 17. maj 2025.

World Economic Forums Global Cybersecurity Outlook 2025 fremhæver, at selvom 66 % af organisationer anser AI som årets største game-changer inden for cybersikkerhed, har kun 37 % implementeret foranstaltninger til at vurdere AI-værktøjer før ibrugtagning. Denne kløft mellem bevidsthed og handling har skabt betydelige sårbarheder på tværs af brancher.

"Organisationer og systemer, der ikke følger med AI-drevne trusler, risikerer at blive yderligere svage led i forsyningskæderne på grund af øget eksponering for sårbarheder og efterfølgende udnyttelse," advarer en talsmand fra det britiske National Cyber Security Centre (NCSC) i deres seneste rapport. NCSC forudser, at AI-drevne angribere i 2027 yderligere vil forkorte tiden mellem opdagelse og udnyttelse af sårbarheder, som allerede nu er reduceret til få dage.

Cybersikkerhedsprofessionelle er især bekymrede for prompt injection-angreb mod store sprogmodeller (LLM’er). I en nylig penetrationstest, omtalt af sikkerhedsforskere, blev en lysbutiks AI-chatbot kompromitteret gennem prompt engineering, hvilket skabte sikkerheds-, sikkerheds- og forretningsmæssige risici. Angrebet muliggjorde udtrækning af systemdata og manipulation af chatbot’ens svar, hvilket demonstrerer, hvordan tilsyneladende harmløse AI-implementeringer kan blive alvorlige sikkerhedsrisici.

Sårbarheder i forsyningskæden udgør en anden væsentlig bekymring, idet 54 % af store organisationer identificerer dem som den største barriere for at opnå cyberresiliens. Den stigende kompleksitet i forsyningskæder, kombineret med begrænset indsigt i leverandørers sikkerhedspraksis, har skabt et miljø, hvor AI-systemer kan kompromitteres gennem tredjepartskomponenter.

Fremkomsten af agentisk AI—systemer, der kan træffe beslutninger og udføre komplekse opgaver autonomt—forventes at transformere trusselslandskabet i 2025. "Tidligere fokuserede vi på AI-assistenter, der kunne reagere på brugernes prompts. Nu ser vi på agentiske AI-værktøjer, der kan træffe beslutninger og udføre komplicerede opgaver selvstændigt," forklarer Hao Yang, VP for kunstig intelligens hos Cisco-ejede Splunk.

Eksperter anbefaler, at organisationer implementerer formelle AI-sikkerhedspolitikker, udfører trusselsmodellering før ibrugtagning, reducerer angrebsflader systematisk og sikrer, at leverandører har aktive programmer for løbende sikkerhedsforbedringer. Derudover er kontinuerlig træning af sikkerhedsteams afgørende, da AI-drevne angreb udvikler sig ud over traditionelle forsvarsmekanismer.

Som en sikkerhedsforsker bemærkede i RISKS Forum: "Skiftet handler ikke kun om at forsvare sig mod AI-drevne angreb—det handler om at erkende, at vores egne AI-systemer nu er blevet primære mål."

Source: Seclists.org

Latest News