Tekoälyn nopea integrointi kriittiseen infrastruktuuriin on luonut huolestuttavan tietoturvatilanteen, kertovat kyberturvallisuusasiantuntijat RISKS Forum Digestin tuoreimmassa numerossa 17. toukokuuta 2025.
Maailman talousfoorumin Global Cybersecurity Outlook 2025 -raportin mukaan 66 % organisaatioista pitää tekoälyä vuoden suurimpana kyberturvallisuuden muutosvoimana, mutta vain 37 % on ottanut käyttöön suojatoimia tekoälytyökalujen arvioimiseksi ennen käyttöönottoa. Tämä tietoisuuden ja toiminnan välinen kuilu on synnyttänyt merkittäviä haavoittuvuuksia eri toimialoille.
"Organisaatiot ja järjestelmät, jotka eivät pysy tekoälypohjaisten uhkien tahdissa, voivat muodostua toimitusketjujen heikoiksi lenkeiksi, sillä niiden altistuminen haavoittuvuuksille ja hyväksikäytölle kasvaa", varoitti Britannian kansallisen kyberturvallisuuskeskuksen (NCSC) edustaja tuoreessa raportissaan. NCSC ennustaa, että vuoteen 2027 mennessä tekoälyä hyödyntävät hyökkääjät lyhentävät entisestään aikaa haavoittuvuuden löytymisen ja hyväksikäytön välillä – aika, joka on jo nyt kutistunut vain päiviin.
Kyberturvallisuusammattilaiset ovat erityisen huolissaan suurten kielimallien (LLM) prompt injection -hyökkäyksistä. Turvatutkijoiden mainitsemassa tuoreessa penetraatiotestissä kynttiläkaupan tekoälychatbotti murrettiin prompt engineeringin avulla, mikä aiheutti tietoturva-, turvallisuus- ja liiketoimintariskejä. Hyökkäyksen avulla saatiin järjestelmädataa ja manipuloitiin chatbotin vastauksia, mikä osoittaa, kuinka viattomiltakin vaikuttavat tekoälyratkaisut voivat muodostua vakaviksi tietoturvariskeiksi.
Toimitusketjun haavoittuvuudet ovat toinen suuri huolenaihe: 54 % suurista organisaatioista pitää niitä suurimpana esteenä kyberresilienssin saavuttamiselle. Toimitusketjujen kasvava monimutkaisuus ja rajallinen näkyvyys toimittajien tietoturvakäytäntöihin ovat luoneet ympäristön, jossa tekoälyjärjestelmiä voidaan murtaa kolmansien osapuolten komponenttien kautta.
Agenttimaisten tekoälyjärjestelmien – eli autonomisesti päätöksiä tekevien ja monimutkaisia tehtäviä suorittavien järjestelmien – odotetaan muuttavan uhkakenttää vuonna 2025. "Aiemmin keskityimme tekoälyavustajiin, jotka vastasivat käyttäjän kehotteisiin. Nyt tarkastelemme agenttimaisia tekoälytyökaluja, jotka voivat tehdä päätöksiä ja toteuttaa monimutkaisia tehtäviä itsenäisesti", selittää Hao Yang, tekoälyn varatoimitusjohtaja Cisco-omisteisessa Splunkissa.
Asiantuntijat suosittelevat, että organisaatiot ottavat käyttöön viralliset tekoälyn tietoturvakäytännöt, suorittavat uhkamallinnuksen ennen käyttöönottoa, pienentävät hyökkäyspintaa järjestelmällisesti ja varmistavat, että toimittajilla on aktiiviset tietoturvan kehitysohjelmat. Lisäksi jatkuva koulutus tietoturvatiimeille on välttämätöntä, sillä tekoälypohjaiset hyökkäykset kehittyvät perinteisten puolustusmekanismien ulottumattomiin.
Kuten eräs tietoturvatutkija totesi RISKS Forumissa: "Kyse ei ole enää vain tekoälyllä tehostettujen hyökkäysten torjunnasta – meidän on tunnistettava, että myös omista tekoälyjärjestelmistämme on tullut ensisijaisia hyökkäyskohteita."