In een belangrijke stap ter bescherming van de nationale veiligheidsinfrastructuur hebben Amerikaanse wetgevers wetgeving geïntroduceerd die bedoeld is om een digitale firewall op te werpen tegen mogelijk vijandige kunstmatige intelligentiesystemen.
De bipartijdige 'No Adversarial AI Act', geïntroduceerd op 25 juni 2025, zou federale instanties verbieden om AI-modellen te gebruiken die zijn ontwikkeld in landen die als tegenstanders van de Verenigde Staten worden beschouwd, waaronder China, Rusland, Iran en Noord-Korea. De wet richt zich specifiek op Chinese AI-systemen zoals DeepSeek, waarover zorgen zijn ontstaan nadat een hoge Amerikaanse functionaris concludeerde dat het systeem de Chinese militaire en inlichtingenoperaties ondersteunt.
"De VS moet een harde grens trekken: vijandige AI-systemen horen niet thuis binnen onze overheid," aldus afgevaardigde John Moolenaar (R-MI), voorzitter van de Select Committee on the Chinese Communist Party. "Deze wetgeving creëert een permanente firewall om vijandige AI buiten onze meest gevoelige netwerken te houden – waar de gevolgen van compromittering simpelweg te groot zijn."
Het wetsvoorstel geniet brede steun van beide partijen, met mede-indieners zoals afgevaardigden Raja Krishnamoorthi (D-IL), Ritchie Torres (D-NY) en Darin LaHood (R-IL) in het Huis van Afgevaardigden, terwijl senatoren Rick Scott (R-FL) en Gary Peters (D-MI) het bijbehorende voorstel in de Senaat leiden.
Volgens de voorgestelde wetgeving moet de Federal Acquisition Security Council een openbare lijst opstellen en regelmatig bijwerken van AI-modellen die zijn ontwikkeld door buitenlandse tegenstanders. Federale instanties zouden worden verboden deze AI-systemen aan te schaffen of te gebruiken, met beperkte uitzonderingen voor onderzoek, terrorismebestrijding of essentiële missiefuncties.
Deze regulerende stap betekent een aanzienlijke uitbreiding van het beleid rond technologische ontkoppeling, waarbij eerdere beperkingen voor hardwarebedrijven zoals Huawei nu worden uitgebreid naar AI-software en algoritmen. De wetgeving komt op het moment dat de zorgen over AI als potentiële vector voor spionage, datadiefstal en sabotage van kritieke infrastructuur toenemen, en markeert een belangrijke verschuiving in de manier waarop westerse landen AI-beveiligingsgovernance benaderen.