menu
close

Les failles de sécurité de l’IA s’accentuent face à l’évolution des attaques en 2025

Des découvertes récentes révèlent que des vulnérabilités critiques de sécurité liées à l’IA sont exploitées à un rythme sans précédent, tandis que les organisations peinent à mettre en place des mesures de protection adéquates. Le National Cyber Security Centre du Royaume-Uni avertit que d’ici 2027, les attaquants utilisant l’IA réduiront encore les délais d’exploitation des failles, alors que seulement 37 % des organisations disposent de protocoles d’évaluation de la sécurité de l’IA adaptés. Les vulnérabilités de la chaîne d’approvisionnement et les attaques par injection de requêtes demeurent des préoccupations majeures à mesure que l’adoption de l’IA s’accélère dans tous les secteurs.
Les failles de sécurité de l’IA s’accentuent face à l’évolution des attaques en 2025

L’intégration rapide de l’intelligence artificielle dans les infrastructures critiques a créé un paysage de sécurité alarmant, selon des experts en cybersécurité cités dans le dernier RISKS Forum Digest publié le 17 mai 2025.

Le rapport Global Cybersecurity Outlook 2025 du Forum économique mondial souligne que si 66 % des organisations considèrent l’IA comme le principal facteur de transformation de la cybersécurité cette année, seules 37 % ont mis en place des mesures permettant d’évaluer les outils d’IA avant leur déploiement. Ce décalage entre la prise de conscience et l’action a engendré d’importantes vulnérabilités dans tous les secteurs.

« Les organisations et systèmes qui ne suivent pas le rythme des menaces permises par l’IA risquent de devenir des points de fragilité supplémentaires au sein des chaînes d’approvisionnement, en raison de leur exposition accrue aux vulnérabilités et à leur exploitation », a averti un porte-parole du National Cyber Security Centre (NCSC) britannique dans son dernier rapport. Le NCSC prévoit qu’à l’horizon 2027, les attaquants utilisant l’IA réduiront encore le délai entre la découverte et l’exploitation d’une faille, un intervalle déjà passé à quelques jours seulement.

Les professionnels de la cybersécurité s’inquiètent particulièrement des attaques par injection de requêtes visant les grands modèles de langage (LLM). Lors d’un récent test d’intrusion cité par des chercheurs en sécurité, le chatbot IA d’une boutique de bougies a été compromis via l’ingénierie de requêtes, générant des risques pour la sécurité, la sûreté et l’activité de l’entreprise. L’attaque a permis d’extraire des données système et de manipuler les réponses du chatbot, démontrant comment des implémentations d’IA apparemment anodines peuvent devenir de véritables failles de sécurité.

Les vulnérabilités de la chaîne d’approvisionnement constituent une autre préoccupation majeure, 54 % des grandes organisations les identifiant comme le principal obstacle à la résilience cyber. La complexité croissante des chaînes d’approvisionnement, couplée à une visibilité limitée sur les pratiques de sécurité des fournisseurs, crée un contexte où les systèmes d’IA peuvent être compromis via des composants tiers.

L’émergence de l’IA agentique — des systèmes capables de prendre des décisions et d’exécuter des tâches complexes de manière autonome — devrait transformer le paysage des menaces en 2025. « Jusqu’à présent, nous nous concentrions sur les assistants IA capables de répondre aux requêtes des utilisateurs. Désormais, nous observons des outils d’IA agentique capables de prendre des décisions et d’effectuer des tâches compliquées de façon indépendante », explique Hao Yang, vice-président de l’intelligence artificielle chez Splunk (groupe Cisco).

Les experts recommandent aux organisations de mettre en place des politiques formelles de sécurité de l’IA, de réaliser des analyses de menaces avant le déploiement, de réduire systématiquement la surface d’attaque et de s’assurer que les fournisseurs disposent de programmes actifs d’amélioration de la sécurité. Par ailleurs, la formation continue des équipes de sécurité est essentielle, car les attaques pilotées par l’IA dépassent les mécanismes de défense traditionnels.

Comme l’a souligné un chercheur en sécurité dans le RISKS Forum : « Le changement ne consiste pas seulement à se défendre contre les attaques alimentées par l’IA — il s’agit de reconnaître que nos propres systèmes d’IA sont désormais des cibles de choix. »

Source: Seclists.org

Latest News