menu
close

Le lacune nella sicurezza dell’IA si ampliano mentre gli attacchi evolvono nel 2025

Recenti scoperte rivelano che vulnerabilità critiche nella sicurezza dell’intelligenza artificiale vengono sfruttate a ritmi senza precedenti, mentre le organizzazioni faticano a implementare adeguate misure di protezione. Il National Cyber Security Centre del Regno Unito avverte che entro il 2027 gli attaccanti potenziati dall’IA ridurranno ulteriormente i tempi di sfruttamento delle vulnerabilità, mentre solo il 37% delle organizzazioni dispone di protocolli adeguati per la valutazione della sicurezza dell’IA. Le vulnerabilità nella supply chain e gli attacchi di prompt injection restano le principali preoccupazioni, mentre l’adozione dell’IA accelera in tutti i settori.
Le lacune nella sicurezza dell’IA si ampliano mentre gli attacchi evolvono nel 2025

L’integrazione rapida dell’intelligenza artificiale nelle infrastrutture critiche ha creato uno scenario di sicurezza allarmante, secondo gli esperti di cybersecurity citati nell’ultimo RISKS Forum Digest pubblicato il 17 maggio 2025.

Il Global Cybersecurity Outlook 2025 del World Economic Forum evidenzia che, sebbene il 66% delle organizzazioni consideri l’IA come il principale fattore di cambiamento nella cybersecurity di quest’anno, solo il 37% ha implementato misure di sicurezza per valutare gli strumenti di IA prima della loro adozione. Questo divario tra consapevolezza e azione ha generato vulnerabilità significative in tutti i settori.

"Le organizzazioni e i sistemi che non tengono il passo con le minacce abilitate dall’IA rischiano di diventare punti di ulteriore fragilità all’interno delle supply chain, a causa della maggiore esposizione potenziale alle vulnerabilità e al loro successivo sfruttamento", ha avvertito un portavoce del National Cyber Security Centre (NCSC) del Regno Unito nel suo ultimo rapporto. Il NCSC prevede che entro il 2027 gli attaccanti potenziati dall’IA ridurranno ulteriormente il tempo tra la scoperta e lo sfruttamento delle vulnerabilità, che si è già accorciato a pochi giorni.

I professionisti della cybersecurity sono particolarmente preoccupati dagli attacchi di prompt injection contro i grandi modelli linguistici (LLM). In un recente penetration test citato da ricercatori di sicurezza, il chatbot di un negozio di candele è stato compromesso tramite tecniche di prompt engineering, creando rischi per la sicurezza, l’incolumità e il business. L’attacco ha permesso l’estrazione di dati di sistema e la manipolazione delle risposte del chatbot, dimostrando come implementazioni di IA apparentemente innocue possano trasformarsi in gravi vulnerabilità di sicurezza.

Le vulnerabilità nella supply chain rappresentano un’altra grande preoccupazione, con il 54% delle grandi organizzazioni che le identifica come il principale ostacolo al raggiungimento della resilienza informatica. La crescente complessità delle supply chain, unita alla limitata visibilità sulle pratiche di sicurezza dei fornitori, ha creato un ambiente in cui i sistemi di IA possono essere compromessi tramite componenti di terze parti.

L’emergere dell’IA agentica—sistemi capaci di prendere decisioni ed eseguire compiti complessi in modo autonomo—è destinato a trasformare il panorama delle minacce nel 2025. "In passato ci concentravamo su assistenti IA in grado di rispondere ai prompt degli utenti. Ora ci troviamo di fronte a strumenti di IA agentica che possono prendere decisioni ed eseguire compiti complicati in autonomia", ha spiegato Hao Yang, vicepresidente per l’intelligenza artificiale di Splunk, società del gruppo Cisco.

Gli esperti raccomandano alle organizzazioni di implementare policy formali per la sicurezza dell’IA, condurre threat modeling prima del deployment, ridurre sistematicamente la superficie d’attacco e assicurarsi che i fornitori abbiano programmi attivi di miglioramento della sicurezza. Inoltre, la formazione continua dei team di sicurezza è essenziale, poiché gli attacchi guidati dall’IA evolvono oltre i meccanismi di difesa tradizionali.

Come ha osservato un ricercatore di sicurezza nel RISKS Forum, "Il cambiamento non riguarda solo la difesa dagli attacchi potenziati dall’IA, ma anche il riconoscere che i nostri stessi sistemi di IA sono diventati bersagli primari."

Source: Seclists.org

Latest News