menu
close

OpenAI Déjoue 10 Campagnes de Détournement de l’IA Soutenues par des États

Le rapport de juin 2025 d’OpenAI détaille comment l’entreprise a déjoué 10 campagnes malveillantes exploitant ChatGPT pour des arnaques à l’emploi, des opérations d’influence et des activités de spam au début de l’année 2025. Des acteurs soutenus par des États, notamment la Chine, la Russie et l’Iran, étaient à l’origine de nombreuses opérations, utilisant des outils d’IA pour renforcer les escroqueries, les intrusions informatiques et les campagnes d’influence mondiales. Si l’IA générative n’a pas créé de nouvelles catégories de menaces, elle a considérablement abaissé les barrières techniques pour les acteurs malveillants et accru l’efficacité des attaques coordonnées.
OpenAI Déjoue 10 Campagnes de Détournement de l’IA Soutenues par des États

OpenAI a publié un rapport complet intitulé « Disrupting malicious uses of AI: June 2025 », révélant comment l’entreprise a identifié et neutralisé 10 campagnes malveillantes ayant exploité ses systèmes d’IA durant les premiers mois de 2025.

Le rapport détaille comment des acteurs soutenus par des États issus de six pays — la Chine, la Russie, la Corée du Nord, l’Iran, le Cambodge et les Philippines — ont utilisé ChatGPT et d’autres outils d’IA pour mener des arnaques à l’emploi, des opérations d’influence et des campagnes de spam. Quatre de ces campagnes émanaient de Chine, ciblant l’ingénierie sociale, des opérations d’influence secrètes et des menaces cyber.

Dans une campagne baptisée « Sneer Review », des acteurs chinois ont inondé les réseaux sociaux de commentaires critiques visant un jeu de société taïwanais abordant des thèmes de résistance au Parti communiste chinois. Une autre opération, « Helgoland Bite », impliquait des acteurs russes générant du contenu en allemand critiquant les États-Unis et l’OTAN, tout en cherchant à influencer les élections allemandes de 2025. Des acteurs nord-coréens ont été observés utilisant l’IA pour produire massivement de faux CV destinés à des postes technologiques à distance, dans le but de prendre le contrôle d’appareils d’entreprise remis lors de l’intégration.

Les équipes de sécurité d’OpenAI ont utilisé l’IA comme multiplicateur de force pour leurs efforts d’enquête, leur permettant de détecter, perturber et exposer des activités abusives telles que l’ingénierie sociale, l’espionnage informatique et les arnaques à l’emploi. Les systèmes de détection de l’entreprise ont signalé des comportements inhabituels dans toutes les campagnes, entraînant la fermeture de comptes et le partage d’informations avec des plateformes partenaires.

« Nous pensons que le partage et la transparence favorisent une meilleure sensibilisation et une préparation accrue de l’ensemble des parties prenantes, menant à une défense collective plus forte face à des adversaires en constante évolution », a déclaré OpenAI dans son rapport. Si l’IA générative n’a pas créé de nouvelles catégories de menaces, elle a considérablement abaissé les barrières techniques pour les acteurs malveillants et augmenté l’efficacité des attaques coordonnées.

Les experts en sécurité soulignent que les organisations doivent rester vigilantes face à l’adoption des grands modèles de langage par les adversaires dans leurs opérations, et s’appuyer sur le partage d’informations en temps réel par des entreprises comme OpenAI, Google, Meta et Anthropic afin de renforcer la défense collective contre ces menaces en évolution.

Source: Techrepublic

Latest News