في خطوة مهمة لوضع معايير موحدة لممارسات الأمن السيبراني في مجال الذكاء الاصطناعي، أصدرت وكالة الأمن السيبراني وحماية البنية التحتية (CISA) وعدة وكالات شريكة إطار عمل جديد يركز تحديداً على أمن بيانات أنظمة الذكاء الاصطناعي.
نُشر الدليل المشترك بعنوان "أمن بيانات الذكاء الاصطناعي: أفضل الممارسات لحماية البيانات المستخدمة في تدريب وتشغيل أنظمة الذكاء الاصطناعي" في 22 مايو 2025. ويعكس هذا الدليل تعاوناً بين CISA ووكالة الأمن القومي ومكتب التحقيقات الفيدرالي، بالإضافة إلى وكالات الأمن السيبراني من أستراليا ونيوزيلندا والمملكة المتحدة.
يبرز الدليل أن أمن البيانات يُعد أساسياً لضمان نزاهة أنظمة الذكاء الاصطناعي طوال دورة حياتها، بدءاً من التطوير والاختبار وصولاً إلى النشر والتشغيل. ويستهدف هذا الدليل بشكل خاص الجهات التي تعتمد على أنظمة الذكاء الاصطناعي في عملياتها اليومية، بما في ذلك قواعد الصناعات الدفاعية، ومالكي أنظمة الأمن الوطني، والوكالات الفيدرالية، ومشغلي البنية التحتية الحيوية.
من بين التوصيات الأساسية، ينصح الدليل المؤسسات بالحصول على بيانات موثوقة وتتبع مصدرها، والتحقق من سلامة البيانات أثناء التخزين والنقل، واستخدام التواقيع الرقمية للمصادقة على التعديلات الموثوقة، والاستفادة من بنية تحتية موثوقة تعتمد على مفهوم الثقة الصفرية، بالإضافة إلى تطبيق تصنيف مناسب للبيانات مع ضوابط وصول ملائمة.
وجاء في إعلان CISA: "مع تزايد دمج أنظمة الذكاء الاصطناعي في العمليات الأساسية، يجب على المؤسسات أن تظل يقظة وتتخذ خطوات مدروسة لحماية البيانات التي تعتمد عليها هذه الأنظمة". وتشمل الاستراتيجيات الموصى بها اعتماد تدابير قوية لحماية البيانات، وإدارة المخاطر بشكل استباقي، وتعزيز قدرات المراقبة واكتشاف التهديدات والدفاع عن الشبكات.
ويأتي هذا الإصدار ضمن مجموعة متنامية من موارد أمن الذكاء الاصطناعي التي تقدمها CISA، والتي تشمل أيضاً إرشادات سابقة حول تطوير ونشر أنظمة الذكاء الاصطناعي بشكل آمن. ويعكس ذلك التزام الوكالة بمعالجة الفرص والمخاطر المحتملة التي تقدمها تقنيات الذكاء الاصطناعي للأمن السيبراني الوطني وحماية البنية التحتية الحيوية.