Ulusal güvenlik altyapısını korumak adına önemli bir adım atan ABD'li milletvekilleri, potansiyel olarak düşmanca yapay zeka sistemlerine karşı dijital bir güvenlik duvarı oluşturmayı amaçlayan bir yasa tasarısı sundu.
25 Haziran 2025'te sunulan iki partili 'Düşman Yapay Zekaya Hayır Yasası', Çin, Rusya, İran ve Kuzey Kore gibi ABD'nin düşmanı olarak görülen ülkelerde geliştirilen yapay zeka modellerinin federal kurumlarda kullanılmasını yasaklayacak. Tasarı, özellikle Çinli DeepSeek gibi yapay zeka sistemlerini hedef alıyor; bu sistemin, üst düzey bir ABD'li yetkilinin Çin'in askeri ve istihbarat operasyonlarına yardımcı olduğu sonucuna varmasının ardından endişelere yol açtığı belirtiliyor.
"ABD net bir çizgi çekmeli: Düşmanca yapay zeka sistemlerinin hükümetimizde yeri yok," diyen Temsilci John Moolenaar (R-MI), Çin Komünist Partisi Seçim Komitesi Başkanı olarak görev yapıyor. "Bu yasa, en hassas ağlarımızda düşman yapay zekayı dışarıda tutacak kalıcı bir güvenlik duvarı oluşturuyor – burada bir ihlalin bedeli fazlasıyla yüksek."
Tasarı, Temsilciler Meclisi'nde Raja Krishnamoorthi (D-IL), Ritchie Torres (D-NY) ve Darin LaHood (R-IL) gibi isimlerin de aralarında bulunduğu iki partili destek bulurken, Senato'da ise Rick Scott (R-FL) ve Gary Peters (D-MI) eş yasa teklifini öne çıkarıyor.
Önerilen yasaya göre, Federal Tedarik Güvenliği Konseyi, yabancı düşmanlar tarafından geliştirilen yapay zeka modellerinin kamuya açık bir listesini oluşturmak ve düzenli olarak güncellemekle yükümlü olacak. Federal kurumların bu listedeki yapay zeka sistemlerini edinmesi veya kullanması yasaklanacak; yalnızca araştırma, terörle mücadele veya kritik görevler gibi sınırlı istisnalar tanınacak.
Bu düzenleme, teknoloji ayrışma politikalarının önemli ölçüde genişletilmesi anlamına geliyor; daha önce Huawei gibi donanım şirketlerine getirilen kısıtlamalar şimdi yapay zeka yazılımı ve algoritmalarını da kapsayacak şekilde genişletiliyor. Yasa tasarısı, yapay zekanın casusluk, veri hırsızlığı ve kritik altyapıya sabotaj için potansiyel bir araç olabileceğine dair artan endişeler arasında gündeme gelirken, Batılı ülkelerin yapay zeka güvenliği yönetimine yaklaşımında önemli bir değişimi işaret ediyor.