menu
close

Bezpečnostné medzery v AI sa prehlbujú, útoky sa v roku 2025 vyvíjajú

Nedávne zistenia odhaľujú, že kritické zraniteľnosti v oblasti bezpečnosti umelej inteligencie sú zneužívané bezprecedentným tempom a organizácie zápasia s implementáciou primeraných ochranných opatrení. Britské Národné centrum kybernetickej bezpečnosti varuje, že do roku 2027 útočníci využívajúci AI ešte viac skrátia čas medzi objavením a zneužitím zraniteľností, pričom len 37 % organizácií má zavedené správne protokoly na hodnotenie bezpečnosti AI. Zraniteľnosti v dodávateľských reťazcoch a útoky typu prompt injection zostávajú hlavnými obavami, keďže adopcia AI v odvetviach zrýchľuje.
Bezpečnostné medzery v AI sa prehlbujú, útoky sa v roku 2025 vyvíjajú

Rýchla integrácia umelej inteligencie do kritickej infraštruktúry vytvorila podľa odborníkov na kybernetickú bezpečnosť alarmujúcu bezpečnostnú situáciu, ako uvádza najnovšie vydanie RISKS Forum Digest z 17. mája 2025.

Globálny výhľad na kybernetickú bezpečnosť 2025 od Svetového ekonomického fóra zdôrazňuje, že hoci 66 % organizácií považuje AI za najväčší faktor zmeny v oblasti kyberbezpečnosti v tomto roku, iba 37 % zaviedlo opatrenia na hodnotenie AI nástrojov pred ich nasadením. Tento nesúlad medzi uvedomením si rizík a reálnymi činmi vytvoril v odvetviach významné zraniteľnosti.

„Organizácie a systémy, ktoré nedržia krok s hrozbami umožnenými AI, sa môžu stať slabými článkami v dodávateľských reťazcoch, pretože sú vystavené väčšiemu riziku zraniteľností a ich následného zneužitia,“ varoval hovorca britského Národného centra kybernetickej bezpečnosti (NCSC) vo svojej najnovšej správe. NCSC predpovedá, že do roku 2027 útočníci využívajúci AI ešte viac skrátia čas medzi objavením a zneužitím zraniteľnosti, ktorý sa už teraz skrátil na niekoľko dní.

Odborníci na kybernetickú bezpečnosť sú obzvlášť znepokojení útokmi typu prompt injection na veľké jazykové modely (LLM). V nedávnom penetračnom teste, na ktorý sa odvolávajú bezpečnostní výskumníci, bol AI chatbot sviečkárne kompromitovaný prostredníctvom prompt engineeringu, čo viedlo k bezpečnostným, prevádzkovým a obchodným rizikám. Útok umožnil extrakciu systémových dát a manipuláciu s odpoveďami chatbota, čím ukázal, ako aj zdanlivo neškodné AI implementácie môžu predstavovať vážne bezpečnostné riziko.

Zraniteľnosti v dodávateľských reťazcoch predstavujú ďalšiu veľkú obavu – 54 % veľkých organizácií ich označuje za najväčšiu prekážku v dosahovaní kybernetickej odolnosti. Rastúca zložitosť dodávateľských reťazcov v kombinácii s obmedzeným prehľadom o bezpečnostných praktikách dodávateľov vytvára prostredie, v ktorom môžu byť AI systémy kompromitované prostredníctvom komponentov tretích strán.

Objavenie sa agentickej AI – systémov, ktoré dokážu autonómne rozhodovať a vykonávať zložité úlohy – má v roku 2025 zásadne zmeniť hrozbový profil. „Doteraz sme sa sústredili na AI asistentov, ktorí reagovali na podnety od používateľov. Teraz sa pozeráme na agentické AI nástroje, ktoré dokážu samostatne rozhodovať a vykonávať komplikované úlohy,“ vysvetlil Hao Yang, viceprezident pre umelú inteligenciu v spoločnosti Splunk, ktorá patrí pod Cisco.

Odborníci odporúčajú organizáciám zaviesť formálne bezpečnostné politiky pre AI, vykonávať modelovanie hrozieb pred nasadením, systematicky znižovať útočné plochy a zabezpečiť, aby dodávatelia mali aktívne programy na zlepšovanie bezpečnosti. Okrem toho je nevyhnutné neustále vzdelávanie bezpečnostných tímov, keďže AI-riadene útoky sa vyvíjajú nad rámec tradičných obranných mechanizmov.

Ako poznamenal jeden z bezpečnostných výskumníkov v RISKS Forum: „Nejde len o obranu pred útokmi poháňanými AI – musíme si uvedomiť, že samotné naše AI systémy sa stali hlavnými cieľmi.“

Source: Seclists.org

Latest News