Googlen tutkijat ovat ottaneet merkittävän askeleen tekoälyn turvallisuuden saralla tunnistamalla perustavanlaatuisen haavoittuvuuden, joka uhkaa tekoälyagenttien eheyttä.
- kesäkuuta 2025 Googlen tietoturvatiimi julkaisi artikkelin 'Johdatus Googlen lähestymistapaan tekoälyagenttien turvallisuudessa', jonka kirjoittivat Santiago Díaz, Christoph Kern ja Kara Olive. Artikkelissa esitellään Googlen tavoitekehys tekoälyagenttien suojaamiseksi. Tekoälyagentit määritellään järjestelmiksi, jotka 'havainnoivat ympäristöään, tekevät päätöksiä ja toimivat itsenäisesti käyttäjän määrittelemien tavoitteiden saavuttamiseksi.'
Tutkimus nostaa esiin kaksi pääasiallista turvallisuusuhkaa: haitalliset toimet (tahattomat, vahingolliset tai käytäntöjä rikkovat käyttäytymismallit) sekä arkaluonteisten tietojen paljastuminen (yksityisten tietojen luvaton vuotaminen). Näiden riskien torjumiseksi Google suosittelee hybridimallia, jossa yhdistetään perinteiset tietoturvakontrollit dynaamisiin, päättelyyn perustuviin puolustusmekanismeihin.
Tätä seurasi 16. kesäkuuta 2025 julkaistu jatkotutkimus, jossa esiteltiin tekoälyagenteille 'tappavan kolminaisuuden' käsite – kolmen kyvykkyyden vaarallinen yhdistelmä, joka luo vakavia tietoturva-aukkoja: pääsy yksityisiin tietoihin, altistuminen epäluotettavalle sisällölle sekä kyky viestiä ulospäin. Kun nämä kolme ominaisuutta yhdistyvät tekoälyjärjestelmässä, hyökkääjät voivat mahdollisesti huijata agentin käsittelemään arkaluonteista tietoa ja vuotamaan sitä ulkopuolelle.
Tietoturvatutkija Simon Willison, joka loi termin 'prompt injection' joitakin vuosia sitten, korostaa tämän haavoittuvuuden ymmärtämisen tärkeyttä. 'Jos agenttisi yhdistää nämä kolme ominaisuutta, hyökkääjä voi helposti huijata sen käsiksi yksityisiin tietoihisi ja lähettämään ne hyökkääjälle', Willison toteaa analyysissaan Googlen tutkimuksesta.
Tutkimuksen ajoitus on erityisen merkityksellinen, sillä tekoälyagentit saavat yhä enemmän itsenäisyyttä ja pääsyä arkaluonteisiin järjestelmiin. Suuret teknologiayhtiöt, kuten Microsoft, Google ja Anthropic, ovat kaikki kohdanneet vastaavia tietoturvaongelmia tekoälytuotteissaan viimeisen kahden vuoden aikana. Kymmeniä dokumentoituja tietovuotohyökkäyksiä on kohdistunut esimerkiksi ChatGPT-, Microsoft Copilot- ja Google Bard -järjestelmiin.
Googlen tutkimus esittää kolme ydinkäytäntöä agenttien turvallisuudelle: agenteilla tulee olla selkeästi määritellyt ihmiskontrolloijat, niiden valtuuksia on rajoitettava tarkasti ja niiden toimet sekä suunnittelu on oltava havaittavissa. Nämä ohjeet tarjoavat arvokkaan viitekehyksen kehittäjille ja organisaatioille, jotka ottavat käyttöön tekoälyagenttijärjestelmiä yhä monimutkaisemmaksi muuttuvassa tietoturvaympäristössä.