Con l’ascesa vertiginosa delle tecnologie di IA generativa prevista per il 2025, tre grandi preoccupazioni dominano il dibattito pubblico: la sicurezza del lavoro, la protezione della privacy e i rischi per la cybersicurezza.
Sul fronte occupazionale, le ricerche recenti offrono un quadro sfaccettato. Uno studio di McKinsey suggerisce che entro il 2030 le attività che rappresentano fino al 30% delle ore lavorative attualmente svolte nell’economia statunitense potrebbero essere automatizzate, una tendenza accelerata dall’IA generativa. I ruoli più a rischio di sostituzione sono quelli nel supporto d’ufficio, nel customer service e nella ristorazione. Tuttavia, in contrasto con le previsioni più catastrofiche, uno studio danese condotto su 11 professioni e 25.000 lavoratori ha rilevato che strumenti di IA generativa come ChatGPT hanno avuto finora un impatto minimo su salari e livelli occupazionali, con gli utenti che riportano un risparmio medio di tempo pari solo al 2,8% delle ore lavorative.
Le preoccupazioni sulla privacy si sono intensificate poiché i sistemi di IA generativa elaborano enormi quantità di dati personali. Gli esperti di sicurezza di IBM avvertono che questi sistemi possono memorizzare e riprodurre involontariamente informazioni sensibili presenti nei dati di addestramento, dando luogo a quello che gli esperti definiscono “model leakage”. Secondo il Data Privacy Benchmark 2024 di Cisco, sebbene il 79% delle aziende tragga già un valore significativo dall’IA generativa, solo la metà degli utenti si astiene dall’inserire informazioni personali o riservate in questi strumenti, creando rischi sostanziali per la privacy.
Le vulnerabilità di sicurezza rappresentano la terza grande preoccupazione. Le valutazioni governative prevedono che entro il 2025 l’IA generativa amplificherà i rischi di sicurezza esistenti più che crearne di nuovi, ma aumenterà notevolmente la velocità e la portata delle minacce. Il governo britannico ha recentemente avvertito che l’IA generativa può consentire intrusioni informatiche più rapide ed efficaci tramite phishing mirato e replicazione di malware. Inoltre, la capacità dell’IA di generare deepfake e media sintetici convincenti rischia di erodere la fiducia pubblica nelle fonti di informazione.
Mentre le organizzazioni si affrettano a implementare l’IA generativa, gli esperti raccomandano di adottare solidi framework di governance dei dati, inclusi minimizzazione dei dati, crittografia, controlli di accesso e audit di sicurezza regolari. Senza adeguate misure di protezione, la tecnologia che promette guadagni di produttività senza precedenti potrebbe esporre individui e organizzazioni a rischi significativi.
Con Gartner che prevede che entro il 2025 l’IA generativa sarà responsabile del 10% di tutti i dati prodotti (rispetto a meno dell’1% attuale), l’urgenza di affrontare queste problematiche non è mai stata così alta.