menu
close

Les législateurs américains créent un pare-feu contre les menaces étrangères liées à l’IA

Un groupe bipartite de législateurs américains a présenté la loi « No Adversarial AI Act » afin d’empêcher les systèmes d’IA potentiellement hostiles d’accéder aux réseaux gouvernementaux sensibles. Cette législation établirait un pare-feu permanent bloquant les modèles d’IA développés par des adversaires étrangers, en particulier la Chine, pour leur utilisation dans les agences fédérales. Cette mesure réglementaire représente un élargissement majeur des politiques de découplage technologique, alors que les inquiétudes concernant l’espionnage et les menaces à la sécurité basées sur l’IA s’intensifient.
Les législateurs américains créent un pare-feu contre les menaces étrangères liées à l’IA

Dans une démarche importante visant à protéger l’infrastructure de sécurité nationale, des législateurs américains ont présenté un projet de loi visant à créer un pare-feu numérique contre les systèmes d’intelligence artificielle potentiellement hostiles.

La loi bipartite « No Adversarial AI Act », déposée le 25 juin 2025, interdirait aux agences fédérales d’utiliser des modèles d’IA développés dans des pays considérés comme des adversaires des États-Unis, notamment la Chine, la Russie, l’Iran et la Corée du Nord. Le projet de loi cible spécifiquement des systèmes d’IA chinois comme DeepSeek, qui a suscité des inquiétudes après qu’un haut responsable américain a conclu qu’il aidait les opérations militaires et de renseignement de la Chine.

« Les États-Unis doivent tracer une ligne claire : les systèmes d’IA hostiles n’ont pas leur place au sein de notre gouvernement », a déclaré le représentant John Moolenaar (R-MI), président du Comité spécial sur le Parti communiste chinois. « Cette législation crée un pare-feu permanent pour empêcher les IA adverses d’accéder à nos réseaux les plus sensibles – là où le coût d’un compromis est tout simplement trop élevé. »

Le projet de loi bénéficie d’un appui bipartisan, avec des co-signataires tels que les représentants Raja Krishnamoorthi (D-IL), Ritchie Torres (D-NY) et Darin LaHood (R-IL) à la Chambre des représentants, tandis que les sénateurs Rick Scott (R-FL) et Gary Peters (D-MI) mènent la mesure parallèle au Sénat.

En vertu de la législation proposée, le Federal Acquisition Security Council serait tenu d’élaborer et de mettre à jour régulièrement une liste publique des modèles d’IA développés par des adversaires étrangers. Les agences fédérales auraient l’interdiction d’acquérir ou d’utiliser ces systèmes d’IA, à l’exception de cas limités pour la recherche, la lutte contre le terrorisme ou des fonctions essentielles à la mission.

Cette mesure réglementaire représente un élargissement significatif des politiques de découplage technologique, étendant les restrictions antérieures visant des entreprises de matériel comme Huawei pour inclure désormais les logiciels et algorithmes d’IA. La législation survient alors que les préoccupations grandissent quant à l’IA comme vecteur potentiel d’espionnage, de vol de données et de sabotage d’infrastructures critiques, marquant un tournant important dans la façon dont les pays occidentaux abordent la gouvernance de la sécurité liée à l’IA.

Source: Deepai

Latest News