Integrasi kecerdasan buatan (AI) secara cepat ke dalam infrastruktur kritis telah menciptakan lanskap keamanan yang mengkhawatirkan, menurut para pakar keamanan siber yang tampil dalam RISKS Forum Digest terbaru yang diterbitkan pada 17 Mei 2025.
Global Cybersecurity Outlook 2025 dari World Economic Forum menyoroti bahwa meskipun 66% organisasi memandang AI sebagai faktor perubahan terbesar dalam keamanan siber tahun ini, hanya 37% yang telah menerapkan perlindungan untuk menilai alat AI sebelum digunakan. Kesenjangan antara kesadaran dan tindakan ini telah menciptakan kerentanan signifikan di berbagai industri.
"Organisasi dan sistem yang tidak mengikuti perkembangan ancaman berbasis AI berisiko menjadi titik rapuh dalam rantai pasok, karena potensi paparan kerentanan dan eksploitasi yang semakin besar," ujar juru bicara National Cyber Security Centre (NCSC) Inggris dalam laporan terbarunya. NCSC memprediksi bahwa pada 2027, penyerang berbasis AI akan semakin mempercepat waktu antara penemuan dan eksploitasi kerentanan, yang kini sudah menyusut menjadi hanya beberapa hari.
Para profesional keamanan siber sangat mengkhawatirkan serangan prompt injection terhadap large language models (LLM). Dalam uji penetrasi terbaru yang dikutip oleh peneliti keamanan, chatbot AI milik sebuah toko lilin berhasil dikompromikan melalui teknik rekayasa prompt, sehingga menimbulkan risiko keamanan, keselamatan, dan bisnis. Serangan ini memungkinkan ekstraksi data sistem dan manipulasi respons chatbot, menunjukkan bagaimana implementasi AI yang tampak sederhana pun dapat menjadi liabilitas keamanan yang serius.
Kerentanan rantai pasok menjadi perhatian besar lainnya, dengan 54% organisasi besar mengidentifikasinya sebagai hambatan utama dalam mencapai ketahanan siber. Kompleksitas rantai pasok yang meningkat, ditambah keterbatasan visibilitas terhadap praktik keamanan pemasok, menciptakan lingkungan di mana sistem AI dapat dikompromikan melalui komponen pihak ketiga.
Munculnya AI agentik—sistem yang dapat mengambil keputusan dan menjalankan tugas kompleks secara otonom—diperkirakan akan mengubah lanskap ancaman pada 2025. "Sebelumnya, kita fokus pada asisten AI yang dapat merespons permintaan pengguna. Kini kita menghadapi alat AI agentik yang mampu mengambil keputusan dan menjalankan tugas rumit secara mandiri," jelas Hao Yang, VP artificial intelligence di Splunk milik Cisco.
Para ahli merekomendasikan organisasi untuk menerapkan kebijakan keamanan AI secara formal, melakukan pemodelan ancaman sebelum implementasi, mengurangi permukaan serangan secara sistematis, dan memastikan vendor memiliki program peningkatan keamanan yang aktif. Selain itu, pelatihan berkelanjutan bagi tim keamanan sangat penting karena serangan berbasis AI terus berkembang melampaui mekanisme pertahanan tradisional.
Seperti yang dicatat salah satu peneliti keamanan dalam RISKS Forum, "Perubahannya bukan sekadar bertahan dari serangan berbasis AI—tetapi juga menyadari bahwa sistem AI kita sendiri kini menjadi target utama."