A disputa sobre quem deve regular a inteligência artificial atingiu um ponto crítico, com autoridades federais e estaduais em conflito sobre jurisdição e abordagem.
Em 6 de junho de 2025, o Senado apresentou sua versão do 'Grande e Belo Projeto de Lei' do presidente Trump, que imporia uma moratória de dez anos sobre regulações estaduais e locais de IA em troca de financiamento federal para banda larga. Essa cláusula polêmica gerou intenso debate, com críticos argumentando que ela enfraquece proteções ao consumidor em nível estadual que já estão em desenvolvimento.
"As preocupações com os residentes e o meio ambiente parecem ser ofuscadas pelo poder e influência que esses desenvolvedores possuem", afirmou um representante estadual contrário à moratória federal. Com a versão do Senado agora em discussão, o futuro da regulação da IA pode ser decidido nas próximas semanas, enquanto as duas casas tentam chegar a um consenso.
O momento é especialmente relevante, já que os estados vêm avançando rapidamente em seus próprios marcos regulatórios para IA. Dias antes, em 2 de junho, a legislatura do Texas aprovou o abrangente Texas Responsible AI Governance Act, que entrará em vigor em janeiro de 2026 se for sancionado pelo governador. Isso faria do Texas o quarto estado, após Colorado, Utah e Califórnia, a promulgar legislação específica sobre IA.
Legisladores estaduais em todo o país apresentaram centenas de projetos de lei relacionados à IA em 2025, com foco em proteção ao consumidor, regulação de chatbots, transparência em IA generativa e segurança de modelos avançados. O AI Act do Colorado tornou-se referência para muitos estados, exigindo que desenvolvedores mitiguem discriminação algorítmica e que operadores realizem avaliações de risco para sistemas de IA de alto risco.
A proposta federal ameaça interromper esse avanço estadual justamente quando sistemas de IA estão cada vez mais integrados ao cotidiano. Especialistas em privacidade destacam que 2025 já testemunhou avanços significativos em governança de IA, com o AI Act da União Europeia estabelecendo padrões globais para transparência, detecção de vieses e supervisão humana em sistemas de alto risco.
À medida que assistentes virtuais e chatbots se tornam mais sofisticados, as preocupações com a privacidade de dados se intensificam. Estudos recentes mostram que apenas 27% das organizações revisam todo o conteúdo gerado por IA antes do uso, evidenciando a necessidade urgente de uma supervisão robusta. O embate entre desregulamentação federal e proteções estaduais provavelmente definirá o futuro da governança de IA nos Estados Unidos.