في 22 مايو 2025، كشفت وكالة الأمن السيبراني وحماية البنية التحتية (CISA) وعدد من الشركاء الأمنيين عن ورقة معلوماتية مشتركة بعنوان "أمن بيانات الذكاء الاصطناعي: أفضل الممارسات لتأمين البيانات المستخدمة في تدريب وتشغيل أنظمة الذكاء الاصطناعي"، في خطوة هامة لمعالجة المخاوف المتزايدة بشأن ثغرات أمن الذكاء الاصطناعي.
وقد شارك في إعداد هذا الدليل مركز أمن الذكاء الاصطناعي التابع لوكالة الأمن القومي (AISC)، ومكتب التحقيقات الفيدرالي (FBI)، وشركاء دوليون من بينهم المركز الأسترالي للأمن السيبراني (ACSC)، والمركز الوطني للأمن السيبراني في نيوزيلندا (NCSC-NZ)، والمركز الوطني للأمن السيبراني في المملكة المتحدة (NCSC). ويؤكد الدليل أن أمن البيانات يُعد أساسًا لضمان موثوقية أنظمة الذكاء الاصطناعي.
تستعرض الورقة المعلوماتية المخاطر الرئيسية التي قد تنشأ نتيجة مشكلات أمن ونزاهة البيانات عبر جميع مراحل دورة حياة الذكاء الاصطناعي، بدءًا من التطوير والاختبار وصولًا إلى النشر والتشغيل. كما تقدم توصيات مفصلة لحماية البيانات التي تغذي أنظمة الذكاء الاصطناعي، بما في ذلك تطبيق تدابير حماية قوية مثل التشفير، والتوقيعات الرقمية، وتتبع مصدر البيانات.
يركز الدليل بشكل خاص على ثلاثة مجالات رئيسية لمخاطر أمن البيانات في أنظمة الذكاء الاصطناعي: ثغرات سلسلة توريد البيانات، البيانات المعدلة بشكل خبيث ("المسمومة")، وانحراف البيانات. ولكل مجال من هذه المخاطر، يوفر الدليل استراتيجيات تخفيف مفصلة وأفضل الممارسات.
وجاء في تنبيه صادر عن وكالة الأمن السيبراني: "مع تزايد دمج أنظمة الذكاء الاصطناعي في العمليات الأساسية، يجب على المؤسسات أن تظل يقظة وتتخذ خطوات مدروسة لتأمين البيانات التي تعتمد عليها هذه الأنظمة". وتوصي الوكالة المؤسسات بتبني تدابير قوية لحماية البيانات، وإدارة المخاطر بشكل استباقي، وتعزيز قدرات المراقبة، واكتشاف التهديدات، والدفاع عن الشبكات.
وتكتسب هذه التوجيهات أهمية خاصة للجهات العاملة في القواعد الصناعية الدفاعية، ومالكي أنظمة الأمن القومي، والوكالات الفيدرالية، ومشغلي البنية التحتية الحيوية الذين يزداد اعتمادهم على أنظمة الذكاء الاصطناعي في بيئات حساسة. ومن خلال تطبيق الممارسات الأمنية الموصى بها، يمكن للمؤسسات حماية أنظمة الذكاء الاصطناعي من التهديدات المحتملة مع الحفاظ على دقة ونزاهة نتائج الذكاء الاصطناعي.