Dans une initiative majeure visant à protéger les infrastructures de sécurité nationale, des parlementaires américains ont présenté une législation destinée à ériger un pare-feu numérique contre les systèmes d’intelligence artificielle potentiellement hostiles.
Le 'No Adversarial AI Act', présenté de manière bipartisane le 25 juin 2025, interdirait aux agences fédérales d’utiliser des modèles d’IA développés dans des pays considérés comme adversaires des États-Unis, notamment la Chine, la Russie, l’Iran et la Corée du Nord. Le texte cible en particulier des systèmes chinois comme DeepSeek, qui a suscité des inquiétudes après qu’un haut responsable américain a conclu qu’il soutenait les opérations militaires et de renseignement chinoises.
« Les États-Unis doivent fixer une limite claire : les systèmes d’IA hostiles n’ont rien à faire au sein de notre gouvernement », a déclaré le représentant John Moolenaar (R-MI), président du Comité spécial sur le Parti communiste chinois. « Cette législation crée un pare-feu permanent pour empêcher l’IA adverse d’accéder à nos réseaux les plus sensibles – là où le coût d’une compromission serait tout simplement trop élevé. »
Le projet de loi bénéficie d’un soutien bipartisan, avec parmi ses co-auteurs les représentants Raja Krishnamoorthi (D-IL), Ritchie Torres (D-NY) et Darin LaHood (R-IL) à la Chambre, tandis que les sénateurs Rick Scott (R-FL) et Gary Peters (D-MI) portent la mesure équivalente au Sénat.
Selon le texte proposé, le Federal Acquisition Security Council serait chargé d’élaborer et de mettre à jour régulièrement une liste publique des modèles d’IA développés par des adversaires étrangers. Les agences fédérales auraient l’interdiction d’acquérir ou d’utiliser ces systèmes d’IA, à l’exception de cas limités pour la recherche, la lutte antiterroriste ou des fonctions critiques pour leur mission.
Cette mesure réglementaire marque une extension significative des politiques de découplage technologique, élargissant les restrictions précédemment imposées à des entreprises de matériel comme Huawei pour inclure désormais les logiciels et algorithmes d’IA. La législation intervient dans un contexte de préoccupations croissantes concernant l’IA comme vecteur potentiel d’espionnage, de vol de données et de sabotage d’infrastructures critiques, marquant un tournant important dans la manière dont les pays occidentaux abordent la gouvernance de la sécurité liée à l’IA.