menu
close

Jurang Keselamatan AI Semakin Melebar Ketika Serangan Berkembang pada 2025

Penemuan terkini mendedahkan kelemahan keselamatan AI yang kritikal sedang dieksploitasi pada kadar yang belum pernah berlaku sebelum ini, dengan organisasi bergelut untuk melaksanakan langkah perlindungan yang mencukupi. Pusat Keselamatan Siber Negara UK memberi amaran bahawa menjelang 2027, penyerang yang diperkasa AI akan terus mengurangkan tempoh eksploitasi kelemahan, sementara hanya 37% organisasi mempunyai protokol penilaian keselamatan AI yang betul. Kelemahan rantaian bekalan dan serangan suntikan prompt kekal sebagai kebimbangan utama ketika penggunaan AI semakin pesat merentas industri.
Jurang Keselamatan AI Semakin Melebar Ketika Serangan Berkembang pada 2025

Integrasi pantas kecerdasan buatan ke dalam infrastruktur kritikal telah mewujudkan landskap keselamatan yang membimbangkan, menurut pakar keselamatan siber yang dipaparkan dalam RISKS Forum Digest terkini yang diterbitkan pada 17 Mei 2025.

Global Cybersecurity Outlook 2025 oleh Forum Ekonomi Dunia menyorot bahawa walaupun 66% organisasi menganggap AI sebagai faktor perubahan terbesar keselamatan siber tahun ini, hanya 37% telah melaksanakan langkah perlindungan untuk menilai alat AI sebelum digunakan. Jurang antara kesedaran dan tindakan ini telah mewujudkan kelemahan ketara merentas industri.

"Organisasi dan sistem yang tidak seiring dengan ancaman berasaskan AI berisiko menjadi titik kelemahan tambahan dalam rantaian bekalan, disebabkan pendedahan yang lebih tinggi kepada kelemahan dan eksploitasi seterusnya," kata jurucakap Pusat Keselamatan Siber Negara UK (NCSC) dalam laporan terkini mereka. NCSC meramalkan bahawa menjelang 2027, penyerang yang diperkasa AI akan terus mengurangkan masa antara penemuan kelemahan dan eksploitasi, yang kini telah dipendekkan kepada hanya beberapa hari.

Pakar keselamatan siber amat bimbang mengenai serangan suntikan prompt terhadap model bahasa besar (LLM). Dalam ujian penembusan baru-baru ini yang dirujuk oleh penyelidik keselamatan, chatbot AI sebuah kedai lilin telah dikompromi melalui kejuruteraan prompt, mewujudkan risiko keselamatan, keselamatan pengguna, dan perniagaan. Serangan itu membolehkan pengekstrakan data sistem dan manipulasi respons chatbot, menunjukkan bagaimana pelaksanaan AI yang kelihatan tidak berbahaya boleh menjadi liabiliti keselamatan yang serius.

Kelemahan rantaian bekalan merupakan satu lagi kebimbangan utama, dengan 54% organisasi besar mengenal pasti ia sebagai halangan terbesar untuk mencapai daya tahan siber. Kompleksiti rantaian bekalan yang semakin meningkat, ditambah dengan keterbatasan dalam memantau amalan keselamatan pembekal, telah mewujudkan persekitaran di mana sistem AI boleh dikompromi melalui komponen pihak ketiga.

Kemunculan AI agentik—sistem yang mampu membuat keputusan dan melaksanakan tugas kompleks secara autonomi—dijangka mengubah landskap ancaman pada 2025. "Sebelum ini, kami memberi tumpuan kepada pembantu AI yang boleh bertindak balas kepada arahan pengguna. Kini kami melihat alat AI agentik yang boleh membuat keputusan dan melaksanakan tugas rumit secara bebas," jelas Hao Yang, Naib Presiden kecerdasan buatan di Splunk milik Cisco.

Pakar mengesyorkan organisasi melaksanakan dasar keselamatan AI yang formal, menjalankan pemodelan ancaman sebelum penggunaan, mengurangkan permukaan serangan secara sistematik, dan memastikan vendor mempunyai program penambahbaikan keselamatan yang aktif. Selain itu, latihan berterusan untuk pasukan keselamatan adalah penting kerana serangan berasaskan AI berkembang melebihi mekanisme pertahanan tradisional.

Seperti yang dinyatakan oleh seorang penyelidik keselamatan dalam RISKS Forum, "Perubahan ini bukan sekadar mempertahankan diri daripada serangan berkuasa AI—ia tentang menyedari bahawa sistem AI kita sendiri kini menjadi sasaran utama."

Source: Seclists.org

Latest News