menu
close

Un moratoire fédéral sur l’IA menace les protections de la vie privée instaurées par les États

Une proposition fédérale controversée visant à geler les réglementations locales et étatiques sur l’IA pour la prochaine décennie crée des tensions entre les législateurs fédéraux et étatiques au 6 juin 2025. Le Sénat a présenté sa version du « One Big Beautiful Bill », qui conditionnerait le financement fédéral du haut débit à un moratoire sur la régulation de l’IA, risquant de compromettre de vastes initiatives étatiques en matière de vie privée et d’éthique déjà en cours. Cette évolution intervient alors que les législations étatiques sur l’IA, axées sur la vie privée, l’éthique et la protection des consommateurs, se multiplient.
Un moratoire fédéral sur l’IA menace les protections de la vie privée instaurées par les États

La bataille sur la régulation de l’intelligence artificielle atteint un tournant critique, alors que les autorités fédérales et étatiques s’opposent sur la question de la compétence et de l’approche à adopter.

Le 6 juin 2025, le Sénat a présenté sa version du « One Big Beautiful Bill » du président Trump, qui imposerait un moratoire de dix ans sur les réglementations locales et étatiques concernant l’IA, en échange d’un financement fédéral pour le haut débit. Cette disposition controversée suscite de vifs débats, les détracteurs estimant qu’elle sape les protections des consommateurs élaborées au niveau des États.

« Les préoccupations pour les résidents et l’environnement semblent éclipsées par le pouvoir et l’influence de ces développeurs », a déclaré un responsable étatique opposé au moratoire fédéral. Avec la version du Sénat désormais sur la table, l’avenir de la régulation de l’IA pourrait se jouer dans les prochaines semaines, alors que les deux chambres cherchent à trouver un compromis.

Le calendrier est d’autant plus crucial que les États avancent rapidement sur leurs propres cadres de gouvernance de l’IA. Quelques jours plus tôt, le 2 juin, la législature du Texas a adopté le Texas Responsible AI Governance Act, une loi ambitieuse qui entrerait en vigueur en janvier 2026 si elle est signée par le gouverneur. Le Texas deviendrait ainsi le quatrième État, après le Colorado, l’Utah et la Californie, à adopter une législation spécifique à l’IA.

En 2025, les législateurs étatiques à travers le pays ont présenté des centaines de projets de loi liés à l’IA, axés sur la protection des consommateurs, la régulation des chatbots, la transparence de l’IA générative et la sécurité des modèles avancés. La loi sur l’IA du Colorado est devenue un modèle pour de nombreux États, exigeant des développeurs qu’ils atténuent les discriminations algorithmiques et des utilisateurs qu’ils réalisent des évaluations de risques pour les systèmes d’IA à haut risque.

La proposition fédérale menace de freiner cet élan au niveau des États, à un moment où les systèmes d’IA s’intègrent de plus en plus dans la vie quotidienne. Les experts en protection de la vie privée soulignent que 2025 a déjà vu d’importantes avancées en matière de gouvernance de l’IA, l’AI Act de l’UE fixant des normes mondiales sur la transparence, la détection des biais et la supervision humaine des systèmes à haut risque.

Alors que les assistants virtuels et les chatbots gagnent en sophistication, les inquiétudes concernant la confidentialité des données s’intensifient. Des études récentes montrent que seulement 27 % des organisations vérifient systématiquement tous les contenus générés par l’IA avant utilisation, soulignant l’urgence d’une supervision renforcée. L’affrontement entre la déréglementation fédérale et les protections instaurées par les États devrait façonner l’avenir de la gouvernance de l’IA aux États-Unis.

Source:

Latest News