menu
close

Google Kenal Pasti 'Trifekta Maut' yang Mengancam Keselamatan Ejen AI

Penyelidik Google, Santiago Díaz, Christoph Kern, dan Kara Olive telah menerbitkan kajian terobosan mengenai kerentanan keselamatan ejen AI. Kertas kerja mereka pada Jun 2025 mengenal pasti corak keselamatan kritikal yang digelar 'trifekta maut': gabungan berbahaya antara akses kepada data peribadi, pendedahan kepada kandungan tidak dipercayai, dan keupayaan komunikasi luaran. Kajian ini memberikan pandangan penting untuk melindungi sistem AI yang semakin autonomi daripada serangan suntikan prompt dan eksfiltrasi data.
Google Kenal Pasti 'Trifekta Maut' yang Mengancam Keselamatan Ejen AI

Dalam satu kemajuan penting untuk keselamatan AI, penyelidik Google telah mengenal pasti corak kerentanan asas yang mengancam integriti sistem ejen AI.

Pada 15 Jun 2025, pasukan keselamatan Google telah menerbitkan 'Pengenalan kepada Pendekatan Google terhadap Keselamatan Ejen AI', yang ditulis oleh Santiago Díaz, Christoph Kern, dan Kara Olive. Kertas kerja ini menggariskan kerangka aspirasi Google untuk melindungi ejen AI, yang mereka definisikan sebagai 'sistem AI yang direka untuk memahami persekitaran mereka, membuat keputusan, dan mengambil tindakan autonomi untuk mencapai matlamat yang ditetapkan pengguna.'

Kajian ini menyoroti dua kebimbangan utama keselamatan: tindakan liar (tingkah laku tidak diingini, berbahaya, atau melanggar polisi) dan pendedahan data sensitif (pembocoran maklumat peribadi tanpa kebenaran). Untuk menangani risiko ini, Google mengesyorkan strategi hibrid pertahanan mendalam yang menggabungkan kawalan keselamatan tradisional dengan pertahanan dinamik berasaskan penaakulan.

Ini diikuti dengan penerbitan berkaitan pada 16 Jun 2025 yang memperkenalkan konsep 'trifekta maut' untuk ejen AI – gabungan berbahaya tiga keupayaan yang mewujudkan kerentanan keselamatan serius: akses kepada data peribadi, pendedahan kepada kandungan tidak dipercayai, dan keupayaan untuk berkomunikasi secara luaran. Apabila ketiga-tiga elemen ini wujud serentak dalam satu sistem AI, penyerang boleh memperdaya ejen untuk mengakses maklumat sensitif dan mengekstraknya keluar.

Penyelidik keselamatan Simon Willison, yang mencipta istilah 'suntikan prompt' beberapa tahun lalu, menekankan kepentingan memahami corak kerentanan ini. 'Jika ejen anda menggabungkan ketiga-tiga ciri ini, penyerang boleh dengan mudah memperdayakannya untuk mengakses data peribadi anda dan menghantarnya kepada penyerang tersebut,' kata Willison dalam analisis beliau terhadap kajian Google.

Penemuan ini sangat relevan memandangkan ejen AI kini semakin autonomi dan mempunyai akses kepada sistem sensitif. Syarikat teknologi utama termasuk Microsoft, Google, dan Anthropic semuanya pernah mengalami isu keselamatan serupa dalam produk AI mereka sepanjang dua tahun lalu, dengan puluhan serangan eksfiltrasi yang didokumenkan melibatkan sistem seperti ChatGPT, Microsoft Copilot, dan Google Bard.

Kajian Google mencadangkan tiga prinsip teras untuk keselamatan ejen: ejen mesti mempunyai pengawal manusia yang jelas, kuasa mereka perlu dihadkan dengan teliti, dan tindakan serta perancangan mereka mesti boleh diperhatikan. Garis panduan ini menawarkan kerangka berharga untuk pembangun dan organisasi yang melaksanakan sistem ejen AI ketika mereka menavigasi landskap keselamatan yang semakin kompleks bagi AI autonomi.

Source:

Latest News