В значима стъпка за защита на националната сигурност, американски законодатели внесоха законопроект, насочен към създаване на дигитална защитна стена срещу потенциално враждебни системи с изкуствен интелект.
Двукомисийният „Закон за недопускане на враждебен AI“, внесен на 25 юни 2025 г., ще забрани на федералните агенции да използват AI модели, разработени в страни, считани за противници на САЩ, включително Китай, Русия, Иран и Северна Корея. Законопроектът е насочен конкретно към китайски AI системи като DeepSeek, която предизвика тревога, след като високопоставен американски служител заключи, че подпомага военните и разузнавателни операции на Китай.
„САЩ трябва да постави ясна граница: враждебните AI системи нямат място в нашето правителство“, заяви представителят Джон Муленаар (републиканец от Мичиган), председател на специалната комисия по Китайската комунистическа партия. „Този закон създава постоянна защитна стена, която държи вражеския AI извън най-чувствителните ни мрежи – там, където цената на компромиса е твърде висока.“
Законопроектът получава подкрепа от двете партии, като съвносители са представители Раджа Кришнамурти (демократ от Илинойс), Ричи Торес (демократ от Ню Йорк) и Дарин ЛаХуд (републиканец от Илинойс) в Камарата на представителите, а сенаторите Рик Скот (републиканец от Флорида) и Гари Питърс (демократ от Мичиган) водят аналогичната инициатива в Сената.
Съгласно предложения закон, Федералният съвет по сигурността на придобиванията ще бъде задължен да разработи и редовно да актуализира публичен списък с AI модели, разработени от чужди противници. Федералните агенции ще бъдат забранени да придобиват или използват тези AI системи, с ограничени изключения за научни изследвания, борба с тероризма или критично важни мисии.
Този регулаторен ход представлява значително разширяване на политиките за технологическо разграничаване, като разширява досегашните ограничения за хардуерни компании като Huawei и към AI софтуер и алгоритми. Законопроектът идва на фона на нарастващи опасения, че изкуственият интелект може да бъде използван за шпионаж, кражба на данни и саботаж на критична инфраструктура, което бележи важна промяна в подхода на западните държави към управлението на сигурността на AI.