A OpenAI identificou uma tendência preocupante de atores chineses a recorrer à sua tecnologia de IA para operações clandestinas, de acordo com um relatório de ameaças abrangente divulgado a 5 de junho de 2025.
A empresa de IA sediada em São Francisco desmantelou dez operações maliciosas nos últimos três meses, sendo quatro delas associadas à China. Estas operações utilizaram táticas sofisticadas, abrangendo engenharia social, espionagem cibernética e campanhas de influência dirigidas a vários países.
Num caso particularmente notório, apelidado de "Sneer Review", operativos chineses usaram o ChatGPT para gerar comentários curtos em várias plataformas de redes sociais, incluindo TikTok, X, Reddit e Facebook, em múltiplos idiomas. A operação criou publicações e comentários para simular envolvimento orgânico, abordando temas que iam desde a política externa dos EUA até críticas a um videojogo centrado em Taiwan. De forma notável, os atores chegaram a utilizar as ferramentas da OpenAI para criar avaliações internas de desempenho que documentavam os procedimentos da operação.
Outra campanha ligada à China fez-se passar por jornalistas e analistas geopolíticos para recolher informações, recorrendo ao ChatGPT para criar perfis credíveis, traduzir comunicações e analisar dados. Uma terceira operação gerou conteúdos polarizadores a apoiar ambos os lados de temas políticos divisivos nos EUA, incluindo imagens de perfil geradas por IA.
Embora a China tenha tido destaque no relatório, a OpenAI também identificou utilizações maliciosas de IA provenientes da Rússia, Coreia do Norte, Irão, Camboja e Filipinas. Estas incluíram desenvolvimento de malware, criação de currículos falsos para infiltração em empresas e automação de propaganda.
“O que estamos a ver da China é uma variedade crescente de operações clandestinas, com uma diversidade cada vez maior de táticas”, afirmou Ben Nimmo, investigador principal da equipa de inteligência da OpenAI. No entanto, salientou que a maioria das operações foi interrompida numa fase inicial e teve um alcance limitado.
O relatório sublinha como a IA está a reduzir barreiras para atores maliciosos, ao mesmo tempo que aumenta a eficiência operacional. A OpenAI destacou a necessidade de vigilância coletiva, afirmando: “Acreditamos que a partilha e a transparência promovem maior consciência e preparação entre todas as partes interessadas, conduzindo a uma defesa coletiva mais forte contra adversários em constante evolução.”