menu
close

Amerykańscy ustawodawcy tworzą zaporę przeciwko zagranicznym zagrożeniom AI

Dwupartyjna grupa amerykańskich ustawodawców przedstawiła ustawę 'No Adversarial AI Act', mającą na celu uniemożliwienie potencjalnie wrogim systemom sztucznej inteligencji dostępu do wrażliwych sieci rządowych. Nowe przepisy ustanowiłyby stałą zaporę blokującą modele AI opracowane przez zagranicznych przeciwników, w szczególności Chiny, przed wykorzystaniem w agencjach federalnych. Ten krok regulacyjny stanowi znaczące rozszerzenie polityki rozdziału technologicznego w obliczu narastających obaw dotyczących szpiegostwa i zagrożeń bezpieczeństwa związanych z AI.
Amerykańscy ustawodawcy tworzą zaporę przeciwko zagranicznym zagrożeniom AI

W istotnym kroku na rzecz ochrony infrastruktury bezpieczeństwa narodowego, amerykańscy ustawodawcy przedstawili projekt ustawy mającej na celu stworzenie cyfrowej zapory przeciwko potencjalnie wrogim systemom sztucznej inteligencji.

Dwupartyjna ustawa 'No Adversarial AI Act', zaprezentowana 25 czerwca 2025 roku, zakazywałaby agencjom federalnym korzystania z modeli AI opracowanych w krajach uznawanych za przeciwników Stanów Zjednoczonych, w tym w Chinach, Rosji, Iranie i Korei Północnej. Projekt ustawy szczególnie skupia się na chińskich systemach AI, takich jak DeepSeek, które wzbudziły obawy po tym, jak wysoki rangą urzędnik USA stwierdził, że wspierają one działania wojskowe i wywiadowcze Chin.

"Stany Zjednoczone muszą wyznaczyć wyraźną granicę: wrogie systemy AI nie mają prawa działać w naszym rządzie" – powiedział przedstawiciel John Moolenaar (R-MI), przewodniczący Specjalnej Komisji ds. Komunistycznej Partii Chin. "Ta ustawa tworzy stałą zaporę, która trzyma wrogie AI z dala od naszych najbardziej wrażliwych sieci – tam, gdzie koszt kompromitacji jest po prostu zbyt wysoki".

Projekt uzyskał poparcie ponad podziałami partyjnymi. Współautorami w Izbie Reprezentantów są Raja Krishnamoorthi (D-IL), Ritchie Torres (D-NY) i Darin LaHood (R-IL), a w Senacie odpowiednią inicjatywę prowadzą senatorowie Rick Scott (R-FL) oraz Gary Peters (D-MI).

Zgodnie z proponowanymi przepisami, Federalna Rada ds. Bezpieczeństwa Zakupów miałaby obowiązek opracowywać i regularnie aktualizować publiczną listę modeli AI opracowanych przez zagranicznych przeciwników. Agencjom federalnym zakazano by nabywania lub używania tych systemów AI, z ograniczonymi wyjątkami dotyczącymi badań naukowych, przeciwdziałania terroryzmowi lub kluczowych funkcji operacyjnych.

Ten ruch regulacyjny oznacza znaczące rozszerzenie polityki rozdziału technologicznego, rozciągając wcześniejsze ograniczenia dotyczące sprzętu – takich firm jak Huawei – również na oprogramowanie i algorytmy AI. Ustawa pojawia się w obliczu rosnących obaw, że sztuczna inteligencja może stać się narzędziem szpiegostwa, kradzieży danych czy sabotażu infrastruktury krytycznej, co stanowi istotną zmianę w podejściu państw zachodnich do zarządzania bezpieczeństwem AI.

Source: Deepai

Latest News