La lutte pour déterminer qui devrait réglementer l’intelligence artificielle a atteint un point critique alors que les autorités fédérales et provinciales s’affrontent sur la question de la compétence et de l’approche à privilégier.
Le 6 juin 2025, le Sénat a présenté sa version du « One Big Beautiful Bill » du président Trump, qui imposerait un moratoire de dix ans sur les réglementations provinciales et municipales en matière d’IA en échange d’un financement fédéral pour l’Internet haute vitesse. Cette disposition controversée a suscité un vif débat, les critiques affirmant qu’elle compromet les protections des consommateurs déjà en développement au niveau provincial.
« Les préoccupations pour les résidents et l’environnement semblent être éclipsées par le pouvoir et l’influence de ces développeurs », a déclaré un représentant provincial opposé au moratoire fédéral. Avec la version du Sénat désormais sur la table, l’avenir de la réglementation de l’IA pourrait se jouer dans les prochaines semaines alors que les deux chambres tentent de concilier leurs différences.
Le moment est particulièrement important puisque les provinces avancent rapidement dans la mise en place de leurs propres cadres de gouvernance de l’IA. Quelques jours plus tôt, le 2 juin, la législature du Texas a adopté la Loi sur la gouvernance responsable de l’IA du Texas, qui entrerait en vigueur en janvier 2026 si elle est signée par le gouverneur. Cela ferait du Texas le quatrième État, après le Colorado, l’Utah et la Californie, à adopter une législation spécifique à l’IA.
Des législateurs provinciaux à travers le pays ont présenté des centaines de projets de loi liés à l’IA en 2025, portant sur la protection des consommateurs, la réglementation des chatbots, la transparence de l’IA générative et la sécurité des modèles avancés. La Loi sur l’IA du Colorado est devenue un modèle pour de nombreuses provinces, exigeant que les développeurs atténuent la discrimination algorithmique et que les utilisateurs procèdent à des évaluations des risques pour les systèmes d’IA à haut risque.
La proposition fédérale menace de freiner cet élan provincial à un moment où les systèmes d’IA s’intègrent de plus en plus à la vie quotidienne. Des experts en protection de la vie privée notent que 2025 a déjà été marquée par des avancées majeures en gouvernance de l’IA, l’AI Act de l’UE établissant des normes mondiales en matière de transparence, de détection des biais et de supervision humaine pour les systèmes d’IA à haut risque.
À mesure que les assistants virtuels et les chatbots deviennent plus sophistiqués, les préoccupations concernant la vie privée des données s’intensifient. Des études récentes montrent que seulement 27 % des organisations examinent tout le contenu généré par l’IA avant de l’utiliser, ce qui souligne l’urgence d’une surveillance rigoureuse. L’affrontement entre la déréglementation fédérale et les protections provinciales risque de définir l’avenir de la gouvernance de l’IA au pays.