menu
close

OpenAI Frustra 10 Campanhas de Uso Indevido de IA Patrocinadas por Estados

O relatório de junho de 2025 da OpenAI detalha como a empresa desmantelou 10 campanhas maliciosas que exploraram o ChatGPT para golpes de emprego, operações de influência e atividades de spam no início de 2025. Atores patrocinados por estados da China, Rússia e Irã estiveram por trás de muitas dessas operações, utilizando ferramentas de IA para potencializar golpes, invasões cibernéticas e campanhas globais de influência. Embora a IA generativa não tenha criado novas categorias de ameaças, ela reduziu significativamente as barreiras técnicas para agentes mal-intencionados e aumentou a eficiência de ataques coordenados.
OpenAI Frustra 10 Campanhas de Uso Indevido de IA Patrocinadas por Estados

A OpenAI divulgou um relatório abrangente intitulado "Combatendo usos maliciosos de IA: junho de 2025", revelando como a empresa identificou e neutralizou 10 campanhas maliciosas que exploraram seus sistemas de IA nos primeiros meses de 2025.

O relatório detalha como agentes patrocinados por estados de seis países — China, Rússia, Coreia do Norte, Irã, Camboja e Filipinas — têm utilizado o ChatGPT e outras ferramentas de IA para realizar golpes de emprego, operações de influência e campanhas de spam. Quatro dessas campanhas tiveram origem na China, com foco em engenharia social, operações de influência encobertas e ameaças cibernéticas.

Em uma campanha chamada "Sneer Review", agentes chineses inundaram plataformas sociais com comentários críticos direcionados a um jogo de tabuleiro taiwanês que abordava temas de resistência ao Partido Comunista Chinês. Outra operação, "Helgoland Bite", envolveu agentes russos gerando conteúdo em alemão criticando os EUA e a OTAN, ao mesmo tempo em que tentavam influenciar as eleições alemãs de 2025. Agentes norte-coreanos foram observados utilizando IA para produzir em massa currículos falsos para vagas remotas em tecnologia, com o objetivo de obter controle sobre dispositivos corporativos fornecidos durante o processo de integração.

As equipes de segurança da OpenAI empregaram IA como multiplicador de força em seus esforços investigativos, permitindo detectar, interromper e expor atividades abusivas, incluindo engenharia social, espionagem cibernética e esquemas de emprego fraudulentos. Os sistemas de detecção da empresa sinalizaram comportamentos incomuns em todas as campanhas, levando ao encerramento de contas e ao compartilhamento de informações com plataformas parceiras.

"Acreditamos que o compartilhamento e a transparência promovem maior conscientização e preparo entre todas as partes interessadas, resultando em uma defesa coletiva mais forte contra adversários em constante evolução", afirmou a OpenAI em seu relatório. Embora a IA generativa não tenha criado categorias inteiramente novas de ameaças, ela reduziu significativamente as barreiras técnicas para agentes mal-intencionados e aumentou a eficiência de ataques coordenados.

Especialistas em segurança enfatizam que as organizações devem permanecer vigilantes quanto à adoção de grandes modelos de linguagem por adversários em suas operações e engajar-se com informações em tempo real compartilhadas por empresas como OpenAI, Google, Meta e Anthropic para construir defesas coletivas mais robustas contra essas ameaças em evolução.

Source: Techrepublic

Latest News