A OpenAI divulgou um relatório abrangente intitulado "Desmantelamento de usos maliciosos de IA: junho de 2025", no qual revela como identificou e neutralizou 10 campanhas maliciosas que exploraram os seus sistemas de IA durante os primeiros meses de 2025.
O relatório detalha como agentes patrocinados por estados de seis países — China, Rússia, Coreia do Norte, Irão, Camboja e Filipinas — têm utilizado o ChatGPT e outras ferramentas de IA para realizar burlas de emprego, operações de influência e campanhas de spam. Quatro destas campanhas tiveram origem na China, com foco em engenharia social, operações de influência encobertas e ameaças cibernéticas.
Numa das campanhas, apelidada de "Sneer Review", agentes chineses inundaram plataformas sociais com comentários críticos dirigidos a um jogo de tabuleiro taiwanês que abordava temas de resistência ao Partido Comunista Chinês. Noutra operação, denominada "Helgoland Bite", agentes russos geraram conteúdos em alemão a criticar os EUA e a NATO, tentando influenciar as eleições alemãs de 2025. Observou-se ainda que agentes norte-coreanos recorreram à IA para produzir em massa currículos falsos para funções tecnológicas remotas, com o objetivo de obter controlo sobre dispositivos corporativos fornecidos durante o processo de integração.
As equipas de segurança da OpenAI utilizaram a IA como multiplicador de força nas suas investigações, permitindo-lhes detetar, interromper e expor atividades abusivas, incluindo engenharia social, espionagem cibernética e esquemas de emprego fraudulentos. Os sistemas de deteção da empresa sinalizaram comportamentos invulgares em todas as campanhas, levando ao encerramento de contas e à partilha de informações com plataformas parceiras.
"Acreditamos que a partilha e a transparência promovem maior consciencialização e preparação entre todas as partes interessadas, conduzindo a uma defesa coletiva mais forte contra adversários em constante evolução", afirmou a OpenAI no relatório. Embora a IA generativa não tenha criado categorias de ameaças totalmente novas, reduziu significativamente as barreiras técnicas para agentes mal-intencionados e aumentou a eficiência de ataques coordenados.
Especialistas em segurança sublinham que as organizações devem manter-se vigilantes quanto à forma como os adversários estão a adotar modelos de linguagem de grande escala nas suas operações e envolver-se com inteligência em tempo real partilhada por empresas como a OpenAI, Google, Meta e Anthropic, para construir defesas coletivas mais robustas contra estas ameaças em evolução.