Die rasante Integration von Künstlicher Intelligenz in kritische Infrastrukturen hat laut Cybersicherheitsexperten, die im neuesten RISKS Forum Digest vom 17. Mai 2025 zu Wort kommen, eine alarmierende Sicherheitslage geschaffen.
Der Global Cybersecurity Outlook 2025 des Weltwirtschaftsforums hebt hervor, dass zwar 66 % der Unternehmen KI als den größten Wendepunkt für die Cybersicherheit in diesem Jahr ansehen, aber nur 37 % Schutzmaßnahmen zur Bewertung von KI-Tools vor deren Einsatz implementiert haben. Diese Diskrepanz zwischen Bewusstsein und Handeln hat branchenübergreifend erhebliche Schwachstellen geschaffen.
„Organisationen und Systeme, die mit KI-gestützten Bedrohungen nicht Schritt halten, laufen Gefahr, zu weiteren Schwachstellen innerhalb der Lieferketten zu werden, da sie einem erhöhten Risiko der Ausnutzung ausgesetzt sind“, warnte ein Sprecher des britischen National Cyber Security Centre (NCSC) in seinem aktuellen Bericht. Das NCSC prognostiziert, dass bis 2027 KI-gestützte Angreifer die Zeitspanne zwischen Entdeckung und Ausnutzung von Schwachstellen weiter verkürzen werden – ein Prozess, der sich bereits auf wenige Tage reduziert hat.
Besonders besorgt sind Cybersicherheitsexperten über Prompt-Injection-Angriffe auf große Sprachmodelle (LLMs). In einem aktuellen Penetrationstest, auf den sich Sicherheitsforscher beziehen, wurde der KI-Chatbot eines Kerzenladens durch Prompt Engineering kompromittiert, was zu Sicherheits-, Schutz- und Geschäftsrisiken führte. Der Angriff ermöglichte die Extraktion von Systemdaten und die Manipulation der Chatbot-Antworten und zeigte so, wie scheinbar harmlose KI-Implementierungen zu ernsthaften Sicherheitsrisiken werden können.
Schwachstellen in der Lieferkette stellen eine weitere große Herausforderung dar: 54 % der Großunternehmen sehen sie als das größte Hindernis für die Erreichung von Cyber-Resilienz. Die zunehmende Komplexität der Lieferketten, gepaart mit begrenzter Transparenz hinsichtlich der Sicherheitspraktiken von Zulieferern, schafft ein Umfeld, in dem KI-Systeme durch Drittanbieter-Komponenten kompromittiert werden können.
Das Aufkommen agentischer KI – also Systeme, die eigenständig Entscheidungen treffen und komplexe Aufgaben ausführen können – wird 2025 die Bedrohungslage grundlegend verändern. „Früher konzentrierten wir uns auf KI-Assistenten, die auf Nutzeranfragen reagierten. Jetzt sehen wir agentische KI-Tools, die eigenständig Entscheidungen treffen und komplizierte Aufgaben ausführen können“, erklärt Hao Yang, VP für Künstliche Intelligenz beim Cisco-Tochterunternehmen Splunk.
Experten empfehlen Unternehmen, formelle KI-Sicherheitsrichtlinien einzuführen, Bedrohungsmodelle vor dem Einsatz zu erstellen, Angriffsflächen systematisch zu reduzieren und sicherzustellen, dass Anbieter aktive Programme zur Verbesserung der Sicherheit betreiben. Darüber hinaus ist kontinuierliche Schulung der Sicherheitsteams unerlässlich, da KI-gesteuerte Angriffe traditionelle Abwehrmechanismen zunehmend umgehen.
Wie ein Sicherheitsforscher im RISKS Forum anmerkt: „Es geht nicht mehr nur darum, sich gegen KI-gestützte Angriffe zu verteidigen – wir müssen erkennen, dass unsere eigenen KI-Systeme mittlerweile selbst zu Hauptzielen geworden sind.“