22 Mayıs 2025 tarihinde CISA ve çeşitli güvenlik ortakları, "Yapay Zeka Veri Güvenliği: Yapay Zeka Sistemlerini Eğitmek ve İşletmek İçin Kullanılan Verilerin Güvenliğini Sağlamaya Yönelik En İyi Uygulamalar" başlıklı ortak bir Siber Güvenlik Bilgi Notu yayımlayarak, yapay zeka güvenlik açıklarına ilişkin artan endişelere önemli bir yanıt verdi.
Ulusal Güvenlik Ajansı'nın (NSA) Yapay Zeka Güvenlik Merkezi (AISC), Federal Soruşturma Bürosu (FBI) ve Avustralya'nın ACSC, Yeni Zelanda'nın NCSC-NZ ve Birleşik Krallık'ın NCSC'si gibi uluslararası ortaklarla birlikte hazırlanan rehber, veri güvenliğinin güvenilir yapay zeka sistemleri için temel olduğunun altını çiziyor.
Bilgi notunda, yapay zeka yaşam döngüsünün geliştirme, test, dağıtım ve işletim dahil tüm aşamalarında veri güvenliği ve bütünlüğü sorunlarından kaynaklanabilecek başlıca riskler sıralanıyor. Yapay zeka sistemlerini besleyen verilerin korunması için şifreleme, dijital imza ve veri kökeni takibi gibi güçlü veri koruma önlemlerinin uygulanması dahil olmak üzere ayrıntılı öneriler sunuluyor.
Rehber, özellikle üç önemli veri güvenliği risk alanına odaklanıyor: veri tedarik zinciri açıkları, kötü amaçlı şekilde değiştirilmiş ("zehirlenmiş") veriler ve veri kayması. Her bir risk alanı için ayrıntılı azaltma stratejileri ve en iyi uygulamalar paylaşılıyor.
"Yapay zeka sistemleri temel operasyonlara daha fazla entegre oldukça, kuruluşların bu sistemleri besleyen verileri korumak için dikkatli ve bilinçli adımlar atmaları şarttır," ifadelerine yer verilen CISA uyarısında, kuruluşlara güçlü veri koruma önlemleri almaları, riskleri proaktif şekilde yönetmeleri ve izleme, tehdit tespiti ile ağ savunma yeteneklerini güçlendirmeleri tavsiye ediliyor.
Bu rehber, özellikle Savunma Sanayi Tabanı, Ulusal Güvenlik Sistemleri sahipleri, federal kurumlar ve hassas ortamlarda giderek daha fazla yapay zeka sistemi kullanan Kritik Altyapı işletmecileri için büyük önem taşıyor. Önerilen güvenlik uygulamalarını hayata geçiren kuruluşlar, potansiyel tehditlere karşı yapay zeka sistemlerini daha iyi koruyabilir ve yapay zeka tabanlı çıktıların doğruluğu ile bütünlüğünü sürdürebilir.