L’intégration rapide de l’intelligence artificielle dans les infrastructures critiques a créé un paysage de sécurité alarmant, selon des experts en cybersécurité cités dans le dernier RISKS Forum Digest publié le 17 mai 2025.
Le rapport Global Cybersecurity Outlook 2025 du Forum économique mondial souligne que si 66 % des organisations considèrent l’IA comme le principal facteur de transformation de la cybersécurité cette année, seules 37 % ont mis en place des mesures permettant d’évaluer les outils d’IA avant leur déploiement. Ce décalage entre la prise de conscience et l’action a engendré d’importantes vulnérabilités dans tous les secteurs.
« Les organisations et systèmes qui ne suivent pas le rythme des menaces permises par l’IA risquent de devenir des points de fragilité supplémentaires au sein des chaînes d’approvisionnement, en raison de leur exposition accrue aux vulnérabilités et à leur exploitation », a averti un porte-parole du National Cyber Security Centre (NCSC) britannique dans son dernier rapport. Le NCSC prévoit qu’à l’horizon 2027, les attaquants utilisant l’IA réduiront encore le délai entre la découverte et l’exploitation d’une faille, un intervalle déjà passé à quelques jours seulement.
Les professionnels de la cybersécurité s’inquiètent particulièrement des attaques par injection de requêtes visant les grands modèles de langage (LLM). Lors d’un récent test d’intrusion cité par des chercheurs en sécurité, le chatbot IA d’une boutique de bougies a été compromis via l’ingénierie de requêtes, générant des risques pour la sécurité, la sûreté et l’activité de l’entreprise. L’attaque a permis d’extraire des données système et de manipuler les réponses du chatbot, démontrant comment des implémentations d’IA apparemment anodines peuvent devenir de véritables failles de sécurité.
Les vulnérabilités de la chaîne d’approvisionnement constituent une autre préoccupation majeure, 54 % des grandes organisations les identifiant comme le principal obstacle à la résilience cyber. La complexité croissante des chaînes d’approvisionnement, couplée à une visibilité limitée sur les pratiques de sécurité des fournisseurs, crée un contexte où les systèmes d’IA peuvent être compromis via des composants tiers.
L’émergence de l’IA agentique — des systèmes capables de prendre des décisions et d’exécuter des tâches complexes de manière autonome — devrait transformer le paysage des menaces en 2025. « Jusqu’à présent, nous nous concentrions sur les assistants IA capables de répondre aux requêtes des utilisateurs. Désormais, nous observons des outils d’IA agentique capables de prendre des décisions et d’effectuer des tâches compliquées de façon indépendante », explique Hao Yang, vice-président de l’intelligence artificielle chez Splunk (groupe Cisco).
Les experts recommandent aux organisations de mettre en place des politiques formelles de sécurité de l’IA, de réaliser des analyses de menaces avant le déploiement, de réduire systématiquement la surface d’attaque et de s’assurer que les fournisseurs disposent de programmes actifs d’amélioration de la sécurité. Par ailleurs, la formation continue des équipes de sécurité est essentielle, car les attaques pilotées par l’IA dépassent les mécanismes de défense traditionnels.
Comme l’a souligné un chercheur en sécurité dans le RISKS Forum : « Le changement ne consiste pas seulement à se défendre contre les attaques alimentées par l’IA — il s’agit de reconnaître que nos propres systèmes d’IA sont désormais des cibles de choix. »