Isang mahalagang hakbang para sa seguridad ng AI ang naganap matapos matukoy ng mga mananaliksik ng Google ang isang pundamental na pattern ng kahinaan na nagbabanta sa integridad ng mga AI agent system.
Noong Hunyo 15, 2025, inilathala ng security team ng Google ang 'An Introduction to Google's Approach to AI Agent Security' na isinulat nina Santiago Díaz, Christoph Kern, at Kara Olive. Inilalarawan sa papel ang aspirasyonal na balangkas ng Google para sa pagpapatibay ng seguridad ng mga AI agent, na kanilang inilalarawan bilang 'mga AI system na dinisenyo upang makita ang kanilang kapaligiran, gumawa ng mga desisyon, at magsagawa ng awtonomong mga aksyon upang makamit ang mga layuning itinakda ng gumagamit.'
Binibigyang-diin ng pananaliksik ang dalawang pangunahing alalahanin sa seguridad: mga rogue action (hindi inaasahan, mapanganib, o lumalabag sa polisiya na mga kilos) at paglalantad ng sensitibong datos (hindi awtorisadong pagbubunyag ng pribadong impormasyon). Bilang tugon sa mga panganib na ito, inirerekomenda ng Google ang isang hybrid at defense-in-depth na estratehiya na pinagsasama ang tradisyonal na mga kontrol sa seguridad at mga dynamic na depensang nakabatay sa pangangatwiran.
Sinundan ito ng isang kaugnay na publikasyon noong Hunyo 16, 2025, na nagpakilala sa konsepto ng 'nakamatay na tatluhan' para sa mga AI agent—isang mapanganib na kombinasyon ng tatlong kakayahan na nagdudulot ng matinding kahinaan sa seguridad: access sa pribadong datos, pagkakalantad sa hindi mapagkakatiwalaang nilalaman, at kakayahang makipagkomunika sa labas. Kapag nagsanib ang tatlong elementong ito sa isang AI system, maaaring malinlang ng mga umaatake ang agent upang ma-access ang sensitibong impormasyon at maipalabas ito.
Binigyang-diin ni Simon Willison, isang security researcher na siyang nagpakilala ng terminong 'prompt injection' ilang taon na ang nakalipas, ang kahalagahan ng pag-unawa sa pattern ng kahinaang ito. 'Kung pinagsama ng iyong agent ang tatlong katangiang ito, madali itong malilinlang ng isang umaatake upang ma-access ang iyong pribadong datos at maipadala ito sa umaatake,' pahayag ni Willison sa kanyang pagsusuri sa pananaliksik ng Google.
Lalo pang naging mahalaga ang pananaliksik na ito ngayong nagkakaroon ng mas mataas na antas ng awtonomiya at access sa sensitibong sistema ang mga AI agent. Ilang malalaking kumpanya sa teknolohiya kabilang ang Microsoft, Google, at Anthropic ay nakaranas ng kaparehong mga isyu sa seguridad sa kanilang mga AI product nitong nakaraang dalawang taon, kung saan dose-dosenang insidente ng data exfiltration ang naitala sa mga system tulad ng ChatGPT, Microsoft Copilot, at Google Bard.
Iminumungkahi ng pananaliksik ng Google ang tatlong pangunahing prinsipyo para sa seguridad ng agent: dapat may malinaw na human controller ang mga agent, dapat mahigpit na limitahan ang kanilang mga kapangyarihan, at dapat nasusubaybayan ang kanilang mga kilos at pagpaplano. Nagbibigay ang mga gabay na ito ng mahalagang balangkas para sa mga developer at organisasyon na nagpapatupad ng AI agent system habang tinutugunan ang masalimuot na usapin ng seguridad sa harap ng lalong nagiging awtonomong AI.