Pada 22 Mei 2025, CISA dan sejumlah mitra keamanan meluncurkan lembar Informasi Keamanan Siber bersama berjudul "Keamanan Data AI: Praktik Terbaik untuk Mengamankan Data yang Digunakan dalam Pelatihan & Operasi Sistem AI", menandai langkah penting dalam menanggapi kekhawatiran yang berkembang terkait kerentanan keamanan AI.
Panduan ini, yang ditulis bersama oleh Artificial Intelligence Security Center (AISC) dari Badan Keamanan Nasional (NSA), Biro Investigasi Federal (FBI), serta mitra internasional seperti ACSC Australia, NCSC-NZ Selandia Baru, dan NCSC Inggris, menekankan bahwa keamanan data adalah fondasi utama untuk memastikan sistem AI yang andal.
Lembar informasi tersebut menguraikan risiko utama yang dapat muncul akibat isu keamanan dan integritas data di seluruh fase siklus hidup AI, mulai dari pengembangan dan pengujian hingga penerapan dan operasional. Dokumen ini memberikan rekomendasi rinci untuk melindungi data yang menjadi penggerak sistem AI, termasuk penerapan langkah-langkah perlindungan data yang kuat seperti enkripsi, tanda tangan digital, dan pelacakan asal-usul data (data provenance).
Panduan ini secara khusus membahas tiga area utama risiko keamanan data pada sistem AI: kerentanan rantai pasok data, data yang dimodifikasi secara jahat ("poisoned data"), dan pergeseran data (data drift). Untuk setiap area risiko, dokumen ini menyediakan strategi mitigasi dan praktik terbaik secara mendetail.
"Seiring sistem AI semakin terintegrasi dalam operasi penting, organisasi harus tetap waspada dan mengambil langkah-langkah tegas untuk mengamankan data yang mendukungnya," demikian pernyataan peringatan dari CISA. Badan ini merekomendasikan agar organisasi mengadopsi langkah-langkah perlindungan data yang kuat, secara proaktif mengelola risiko, serta memperkuat kemampuan pemantauan, deteksi ancaman, dan pertahanan jaringan.
Panduan ini sangat relevan bagi Basis Industri Pertahanan, pemilik Sistem Keamanan Nasional, lembaga federal, dan operator Infrastruktur Kritis yang semakin banyak menerapkan sistem AI di lingkungan sensitif. Dengan menerapkan praktik keamanan yang direkomendasikan, organisasi dapat lebih baik melindungi sistem AI mereka dari potensi ancaman sekaligus menjaga akurasi dan integritas hasil berbasis AI.