menu
close

OpenAI Frustra 10 Campanhas de Uso Indevido de IA com Apoio Estatal

O relatório de junho de 2025 da OpenAI detalha como a empresa desmantelou 10 campanhas maliciosas que exploravam o ChatGPT para burlas de emprego, operações de influência e atividades de spam no início de 2025. Agentes patrocinados por estados como China, Rússia e Irão estiveram por detrás de muitas destas operações, utilizando ferramentas de IA para potenciar esquemas fraudulentos, intrusões cibernéticas e campanhas globais de influência. Embora a IA generativa não tenha criado novas categorias de ameaças, reduziu significativamente as barreiras técnicas para agentes maliciosos e aumentou a eficiência de ataques coordenados.
OpenAI Frustra 10 Campanhas de Uso Indevido de IA com Apoio Estatal

A OpenAI divulgou um relatório abrangente intitulado "Desmantelamento de usos maliciosos de IA: junho de 2025", no qual revela como identificou e neutralizou 10 campanhas maliciosas que exploraram os seus sistemas de IA durante os primeiros meses de 2025.

O relatório detalha como agentes patrocinados por estados de seis países — China, Rússia, Coreia do Norte, Irão, Camboja e Filipinas — têm utilizado o ChatGPT e outras ferramentas de IA para realizar burlas de emprego, operações de influência e campanhas de spam. Quatro destas campanhas tiveram origem na China, com foco em engenharia social, operações de influência encobertas e ameaças cibernéticas.

Numa das campanhas, apelidada de "Sneer Review", agentes chineses inundaram plataformas sociais com comentários críticos dirigidos a um jogo de tabuleiro taiwanês que abordava temas de resistência ao Partido Comunista Chinês. Noutra operação, denominada "Helgoland Bite", agentes russos geraram conteúdos em alemão a criticar os EUA e a NATO, tentando influenciar as eleições alemãs de 2025. Observou-se ainda que agentes norte-coreanos recorreram à IA para produzir em massa currículos falsos para funções tecnológicas remotas, com o objetivo de obter controlo sobre dispositivos corporativos fornecidos durante o processo de integração.

As equipas de segurança da OpenAI utilizaram a IA como multiplicador de força nas suas investigações, permitindo-lhes detetar, interromper e expor atividades abusivas, incluindo engenharia social, espionagem cibernética e esquemas de emprego fraudulentos. Os sistemas de deteção da empresa sinalizaram comportamentos invulgares em todas as campanhas, levando ao encerramento de contas e à partilha de informações com plataformas parceiras.

"Acreditamos que a partilha e a transparência promovem maior consciencialização e preparação entre todas as partes interessadas, conduzindo a uma defesa coletiva mais forte contra adversários em constante evolução", afirmou a OpenAI no relatório. Embora a IA generativa não tenha criado categorias de ameaças totalmente novas, reduziu significativamente as barreiras técnicas para agentes mal-intencionados e aumentou a eficiência de ataques coordenados.

Especialistas em segurança sublinham que as organizações devem manter-se vigilantes quanto à forma como os adversários estão a adotar modelos de linguagem de grande escala nas suas operações e envolver-se com inteligência em tempo real partilhada por empresas como a OpenAI, Google, Meta e Anthropic, para construir defesas coletivas mais robustas contra estas ameaças em evolução.

Source: Techrepublic

Latest News