Rýchla integrácia umelej inteligencie do kritickej infraštruktúry vytvorila podľa odborníkov na kybernetickú bezpečnosť alarmujúcu bezpečnostnú situáciu, ako uvádza najnovšie vydanie RISKS Forum Digest z 17. mája 2025.
Globálny výhľad na kybernetickú bezpečnosť 2025 od Svetového ekonomického fóra zdôrazňuje, že hoci 66 % organizácií považuje AI za najväčší faktor zmeny v oblasti kyberbezpečnosti v tomto roku, iba 37 % zaviedlo opatrenia na hodnotenie AI nástrojov pred ich nasadením. Tento nesúlad medzi uvedomením si rizík a reálnymi činmi vytvoril v odvetviach významné zraniteľnosti.
„Organizácie a systémy, ktoré nedržia krok s hrozbami umožnenými AI, sa môžu stať slabými článkami v dodávateľských reťazcoch, pretože sú vystavené väčšiemu riziku zraniteľností a ich následného zneužitia,“ varoval hovorca britského Národného centra kybernetickej bezpečnosti (NCSC) vo svojej najnovšej správe. NCSC predpovedá, že do roku 2027 útočníci využívajúci AI ešte viac skrátia čas medzi objavením a zneužitím zraniteľnosti, ktorý sa už teraz skrátil na niekoľko dní.
Odborníci na kybernetickú bezpečnosť sú obzvlášť znepokojení útokmi typu prompt injection na veľké jazykové modely (LLM). V nedávnom penetračnom teste, na ktorý sa odvolávajú bezpečnostní výskumníci, bol AI chatbot sviečkárne kompromitovaný prostredníctvom prompt engineeringu, čo viedlo k bezpečnostným, prevádzkovým a obchodným rizikám. Útok umožnil extrakciu systémových dát a manipuláciu s odpoveďami chatbota, čím ukázal, ako aj zdanlivo neškodné AI implementácie môžu predstavovať vážne bezpečnostné riziko.
Zraniteľnosti v dodávateľských reťazcoch predstavujú ďalšiu veľkú obavu – 54 % veľkých organizácií ich označuje za najväčšiu prekážku v dosahovaní kybernetickej odolnosti. Rastúca zložitosť dodávateľských reťazcov v kombinácii s obmedzeným prehľadom o bezpečnostných praktikách dodávateľov vytvára prostredie, v ktorom môžu byť AI systémy kompromitované prostredníctvom komponentov tretích strán.
Objavenie sa agentickej AI – systémov, ktoré dokážu autonómne rozhodovať a vykonávať zložité úlohy – má v roku 2025 zásadne zmeniť hrozbový profil. „Doteraz sme sa sústredili na AI asistentov, ktorí reagovali na podnety od používateľov. Teraz sa pozeráme na agentické AI nástroje, ktoré dokážu samostatne rozhodovať a vykonávať komplikované úlohy,“ vysvetlil Hao Yang, viceprezident pre umelú inteligenciu v spoločnosti Splunk, ktorá patrí pod Cisco.
Odborníci odporúčajú organizáciám zaviesť formálne bezpečnostné politiky pre AI, vykonávať modelovanie hrozieb pred nasadením, systematicky znižovať útočné plochy a zabezpečiť, aby dodávatelia mali aktívne programy na zlepšovanie bezpečnosti. Okrem toho je nevyhnutné neustále vzdelávanie bezpečnostných tímov, keďže AI-riadene útoky sa vyvíjajú nad rámec tradičných obranných mechanizmov.
Ako poznamenal jeden z bezpečnostných výskumníkov v RISKS Forum: „Nejde len o obranu pred útokmi poháňanými AI – musíme si uvedomiť, že samotné naše AI systémy sa stali hlavnými cieľmi.“