menu
close

AI-beveiligingslekken nemen toe naarmate aanvallen evolueren in 2025

Recente bevindingen tonen aan dat kritieke AI-beveiligingslekken in ongekend tempo worden misbruikt, terwijl organisaties moeite hebben om voldoende beschermingsmaatregelen te implementeren. Het Britse National Cyber Security Centre waarschuwt dat AI-gedreven aanvallers tegen 2027 de tijd tussen het ontdekken en uitbuiten van kwetsbaarheden verder zullen verkorten. Slechts 37% van de organisaties beschikt over adequate protocollen voor AI-beveiligingsbeoordeling. Kwetsbaarheden in de toeleveringsketen en prompt injection-aanvallen blijven belangrijke zorgen nu de adoptie van AI in diverse sectoren versnelt.
AI-beveiligingslekken nemen toe naarmate aanvallen evolueren in 2025

De snelle integratie van kunstmatige intelligentie in kritieke infrastructuren heeft volgens cybersecurity-experts geleid tot een alarmerend beveiligingslandschap. Dat blijkt uit de nieuwste RISKS Forum Digest, gepubliceerd op 17 mei 2025.

Uit het Global Cybersecurity Outlook 2025 van het World Economic Forum blijkt dat 66% van de organisaties AI ziet als de grootste cybersecurity-gamechanger van dit jaar, maar dat slechts 37% daadwerkelijk maatregelen heeft genomen om AI-tools voorafgaand aan implementatie te beoordelen. Deze kloof tussen bewustzijn en actie zorgt voor aanzienlijke kwetsbaarheden binnen verschillende sectoren.

"Organisaties en systemen die niet gelijke tred houden met AI-gedreven dreigingen, lopen het risico zwakke schakels te worden binnen toeleveringsketens, vanwege hun verhoogde blootstelling aan kwetsbaarheden en daaropvolgende uitbuiting," waarschuwde een woordvoerder van het Britse National Cyber Security Centre (NCSC) in hun meest recente rapport. Het NCSC voorspelt dat AI-gedreven aanvallers tegen 2027 de tijd tussen het ontdekken van kwetsbaarheden en het uitbuiten ervan verder zullen verkorten, een periode die nu al is teruggebracht tot slechts enkele dagen.

Cybersecurity-professionals maken zich vooral zorgen over prompt injection-aanvallen op grote taalmodellen (LLM's). In een recent penetratietest, aangehaald door beveiligingsonderzoekers, werd de AI-chatbot van een kaarsenwinkel gecompromitteerd via prompt engineering, wat leidde tot beveiligings-, veiligheids- en bedrijfsrisico's. De aanval maakte het mogelijk om systeemdata te extraheren en de antwoorden van de chatbot te manipuleren, waarmee werd aangetoond hoe ogenschijnlijk onschuldige AI-implementaties serieuze beveiligingsrisico's kunnen vormen.

Kwetsbaarheden in de toeleveringsketen vormen een andere grote zorg: 54% van de grote organisaties ziet deze als het grootste obstakel voor cyberweerbaarheid. De toenemende complexiteit van toeleveringsketens, gecombineerd met beperkte zichtbaarheid op de beveiligingspraktijken van leveranciers, creëert een situatie waarin AI-systemen via componenten van derden kunnen worden gecompromitteerd.

De opkomst van agentische AI—systemen die zelfstandig beslissingen kunnen nemen en complexe taken kunnen uitvoeren—zal het dreigingslandschap in 2025 verder veranderen. "Voorheen richtten we ons op AI-assistenten die reageerden op gebruikersprompts. Nu kijken we naar agentische AI-tools die zelfstandig beslissingen nemen en ingewikkelde taken uitvoeren," legt Hao Yang uit, VP artificial intelligence bij het Cisco-dochterbedrijf Splunk.

Experts adviseren organisaties om formele AI-beveiligingsbeleid te implementeren, dreigingsmodellen op te stellen vóór uitrol, het aanvalsoppervlak systematisch te verkleinen en te zorgen dat leveranciers actieve programma's voor beveiligingsverbetering hebben. Daarnaast is continue training van beveiligingsteams essentieel, aangezien AI-gedreven aanvallen zich sneller ontwikkelen dan traditionele verdedigingsmechanismen.

Zoals een beveiligingsonderzoeker opmerkte in het RISKS Forum: "De verschuiving draait niet alleen om verdedigen tegen AI-aangedreven aanvallen—het gaat erom te erkennen dat onze eigen AI-systemen zelf hoofdobjecten van aanvallen zijn geworden."

Source: Seclists.org

Latest News