OpenAI ha identificato una tendenza crescente all’uso improprio della propria tecnologia di intelligenza artificiale da parte di gruppi cinesi per operazioni coperte, secondo quanto riportato in un documento pubblicato il 5 giugno. L’azienda di San Francisco, recentemente valutata 300 miliardi di dollari dopo un round di finanziamento record da 40 miliardi, ha adottato misure vietando diversi account collegati a tali attività.
In un caso particolarmente significativo, denominato "Sneer Review" dagli investigatori di OpenAI, gli operatori hanno generato post sui social media su temi politicamente sensibili per la Cina. Questi includevano critiche a un videogioco incentrato su Taiwan, false accuse contro un’attivista pakistana e contenuti relativi alla chiusura di USAID. Alcuni post criticavano anche le politiche tariffarie dell’ex presidente USA Donald Trump. L’operazione era abbastanza sofisticata da produrre sia post che commenti, simulando un coinvolgimento organico degli utenti.
Una seconda operazione ha visto attori informatici legati alla Cina utilizzare ChatGPT per supportare varie fasi delle loro attività cyber. Ciò comprendeva ricerche su fonti aperte, modifica di script, risoluzione di problemi di configurazione dei sistemi e sviluppo di strumenti per attacchi di forza bruta alle password e automazione dei social media. Particolarmente preoccupante è stata la scoperta che questi attori hanno usato gli strumenti di OpenAI per creare documenti interni, inclusi report sulle prestazioni che dettagliavano le loro attività.
Un terzo esempio ha rivelato un’operazione di influenza di origine cinese che generava contenuti polarizzanti sui social media a sostegno di entrambe le parti su temi divisivi all’interno del dibattito politico statunitense. Questo approccio sembra mirato a sfruttare le divisioni politiche esistenti piuttosto che promuovere una specifica posizione ideologica. Ben Nimmo, principale investigatore del team di intelligence di OpenAI, ha osservato che, sebbene queste operazioni dimostrino "una gamma crescente di operazioni coperte con tattiche sempre più varie", sono state generalmente interrotte nelle fasi iniziali prima di raggiungere un vasto pubblico.
Il rapporto di OpenAI ha inoltre menzionato di aver interrotto operazioni di influenza occulta provenienti da altri paesi, tra cui Russia e Iran, nonché varie truffe collegate a Cambogia e Corea del Nord. L’azienda monitora e segnala regolarmente le attività malevole sulla propria piattaforma, come parte del suo impegno per uno sviluppo responsabile dell’IA.
Il ministero degli Esteri cinese non ha risposto alle richieste di commento sui risultati di OpenAI.