OpenAI ha pubblicato un rapporto dettagliato intitolato "Disrupting malicious uses of AI: June 2025", in cui rivela come l’azienda abbia identificato e neutralizzato 10 campagne malevole che sfruttavano i suoi sistemi di intelligenza artificiale nei primi mesi del 2025.
Il rapporto descrive come attori sponsorizzati da sei paesi—Cina, Russia, Corea del Nord, Iran, Cambogia e Filippine—abbiano utilizzato ChatGPT e altri strumenti di IA per condurre truffe lavorative, operazioni di influenza e campagne di spam. Quattro di queste campagne hanno avuto origine in Cina, con un focus su ingegneria sociale, operazioni di influenza occulta e minacce informatiche.
In una campagna soprannominata "Sneer Review", attori cinesi hanno inondato le piattaforme social con commenti critici rivolti a un gioco da tavolo taiwanese che includeva temi di resistenza contro il Partito Comunista Cinese. Un’altra operazione, "Helgoland Bite", ha visto attori russi generare contenuti in lingua tedesca critici verso gli Stati Uniti e la NATO, nel tentativo di influenzare le elezioni tedesche del 2025. Attori nordcoreani sono stati osservati mentre utilizzavano l’IA per produrre in massa curriculum falsi per ruoli tecnologici da remoto, con l’obiettivo di ottenere il controllo dei dispositivi aziendali forniti durante l’onboarding.
I team di sicurezza di OpenAI hanno impiegato l’intelligenza artificiale come moltiplicatore di forza per le loro attività investigative, consentendo loro di rilevare, interrompere ed esporre attività abusive tra cui ingegneria sociale, spionaggio informatico e schemi di assunzione ingannevoli. I sistemi di rilevamento dell’azienda hanno segnalato comportamenti anomali in tutte le campagne, portando alla chiusura degli account coinvolti e alla condivisione di informazioni con piattaforme partner.
"Crediamo che condivisione e trasparenza favoriscano una maggiore consapevolezza e preparazione tra tutti gli attori coinvolti, portando a una difesa collettiva più solida contro avversari in continua evoluzione", ha dichiarato OpenAI nel rapporto. Sebbene l’IA generativa non abbia creato categorie di minacce completamente nuove, ha abbassato notevolmente le barriere tecniche per i malintenzionati e aumentato l’efficienza degli attacchi coordinati.
Gli esperti di sicurezza sottolineano che le organizzazioni devono rimanere vigili su come gli avversari adottano i grandi modelli linguistici nelle loro operazioni e collaborare con l’intelligence in tempo reale condivisa da aziende come OpenAI, Google, Meta e Anthropic per costruire difese collettive più forti contro queste minacce in evoluzione.