Integrarea rapidă a inteligenței artificiale în infrastructurile critice a creat un peisaj alarmant din punct de vedere al securității, potrivit experților în securitate cibernetică citați în cel mai recent număr al RISKS Forum Digest, publicat pe 17 mai 2025.
Raportul Global Cybersecurity Outlook 2025 al Forumului Economic Mondial subliniază că, deși 66% dintre organizații consideră AI drept cel mai important factor de schimbare în securitatea cibernetică din acest an, doar 37% au implementat măsuri de protecție pentru evaluarea instrumentelor AI înainte de implementare. Această discrepanță dintre conștientizare și acțiune a generat vulnerabilități semnificative în toate industriile.
„Organizațiile și sistemele care nu țin pasul cu amenințările facilitate de AI riscă să devină puncte de fragilitate suplimentară în cadrul lanțurilor de aprovizionare, din cauza expunerii crescute la vulnerabilități și exploatarea ulterioară a acestora”, a avertizat un purtător de cuvânt al Centrului Național de Securitate Cibernetică (NCSC) al Regatului Unit în cel mai recent raport. NCSC preconizează că, până în 2027, atacatorii care folosesc AI vor reduce și mai mult intervalul dintre descoperirea și exploatarea unei vulnerabilități, interval care deja s-a redus la doar câteva zile.
Specialiștii în securitate cibernetică sunt deosebit de preocupați de atacurile de tip prompt injection asupra modelelor lingvistice mari (LLM). Într-un test de penetrare recent, citat de cercetătorii în securitate, chatbot-ul AI al unui magazin de lumânări a fost compromis prin inginerie de prompturi, generând riscuri de securitate, siguranță și afaceri. Atacul a permis extragerea de date din sistem și manipularea răspunsurilor chatbot-ului, demonstrând cum implementările AI aparent inofensive pot deveni vulnerabilități serioase de securitate.
Vulnerabilitățile din lanțul de aprovizionare reprezintă o altă preocupare majoră, 54% dintre organizațiile mari identificându-le drept cea mai mare barieră în atingerea rezilienței cibernetice. Complexitatea tot mai mare a lanțurilor de aprovizionare, împreună cu vizibilitatea redusă asupra practicilor de securitate ale furnizorilor, a creat un mediu în care sistemele AI pot fi compromise prin componente terțe.
Emergența AI-ului agentic—sisteme capabile să ia decizii și să execute sarcini complexe în mod autonom—este de așteptat să transforme peisajul amenințărilor în 2025. „Anterior, ne concentram pe asistenți AI care răspundeau la solicitările utilizatorilor. Acum analizăm instrumente AI agentice care pot lua decizii și efectua sarcini complicate independent”, a explicat Hao Yang, vicepreședinte al diviziei de inteligență artificială la Splunk, companie deținută de Cisco.
Experții recomandă organizațiilor să implementeze politici formale de securitate AI, să realizeze modelarea amenințărilor înainte de implementare, să reducă sistematic suprafața de atac și să se asigure că furnizorii au programe active de îmbunătățire a securității. În plus, instruirea continuă a echipelor de securitate este esențială, pe măsură ce atacurile bazate pe AI evoluează dincolo de mecanismele tradiționale de apărare.
Așa cum a remarcat un cercetător în securitate în cadrul RISKS Forum: „Schimbarea nu constă doar în apărarea împotriva atacurilor alimentate de AI—ci și în recunoașterea faptului că propriile noastre sisteme AI au devenit ținte principale.”