OpenAI ha identificato una tendenza preoccupante di attori cinesi che sfruttano la sua tecnologia di intelligenza artificiale per operazioni segrete, secondo un dettagliato rapporto sulle minacce pubblicato il 5 giugno 2025.
La società di San Francisco ha interrotto dieci operazioni malevole negli ultimi tre mesi, quattro delle quali legate alla Cina. Queste operazioni hanno impiegato tattiche sofisticate che spaziano dall’ingegneria sociale allo spionaggio informatico, fino a campagne di influenza rivolte a diversi paesi.
In un caso particolarmente significativo, denominato "Sneer Review", operatori cinesi hanno utilizzato ChatGPT per generare brevi commenti su piattaforme social come TikTok, X, Reddit e Facebook in più lingue. L’operazione ha creato sia post che commenti per simulare un coinvolgimento organico, affrontando temi che andavano dalla politica estera degli Stati Uniti alle critiche verso un videogioco incentrato su Taiwan. In modo sorprendente, gli attori hanno persino utilizzato gli strumenti di OpenAI per redigere valutazioni interne delle prestazioni, documentando le procedure dell’operazione.
Un’altra campagna legata alla Cina si è spacciata per giornalisti e analisti geopolitici per raccogliere informazioni, utilizzando ChatGPT per creare profili credibili, tradurre comunicazioni e analizzare dati. Una terza operazione ha generato contenuti polarizzanti a sostegno di entrambe le parti su temi politici divisivi negli Stati Uniti, corredati da immagini di profilo generate dall’IA.
Sebbene la Cina sia stata particolarmente presente nel rapporto, OpenAI ha individuato anche utilizzi malevoli dell’IA provenienti da Russia, Corea del Nord, Iran, Cambogia e Filippine. Questi includevano sviluppo di malware, creazione di curriculum falsi per infiltrazioni aziendali e automazione della propaganda.
"Quello che osserviamo dalla Cina è una gamma crescente di operazioni segrete che utilizzano una varietà sempre maggiore di tattiche", ha dichiarato Ben Nimmo, investigatore principale del team di intelligence di OpenAI. Tuttavia, ha sottolineato che la maggior parte delle operazioni è stata interrotta nelle fasi iniziali e ha raggiunto un pubblico limitato.
Il rapporto evidenzia come l’IA stia abbassando le barriere per gli attori malevoli, aumentando al contempo l’efficienza operativa. OpenAI ha sottolineato la necessità di una vigilanza collettiva, affermando: "Crediamo che la condivisione e la trasparenza favoriscano una maggiore consapevolezza e preparazione tra tutti gli stakeholder, portando a una difesa collettiva più forte contro avversari in continua evoluzione."