menu
close

OpenAI déjoue 10 campagnes d’utilisation malveillante de l’IA soutenues par des États

Le rapport de juin 2025 d’OpenAI détaille comment l’entreprise a perturbé 10 campagnes malveillantes exploitant ChatGPT pour des arnaques à l’emploi, des opérations d’influence et des activités de pourriel au début de 2025. Des acteurs soutenus par des États, notamment la Chine, la Russie et l’Iran, étaient derrière plusieurs de ces opérations, utilisant des outils d’IA pour renforcer les escroqueries, les intrusions informatiques et les campagnes d’influence à l’échelle mondiale. Bien que l’IA générative n’ait pas créé de nouvelles catégories de menaces, elle a considérablement abaissé les barrières techniques pour les acteurs malveillants et accru l’efficacité des attaques coordonnées.
OpenAI déjoue 10 campagnes d’utilisation malveillante de l’IA soutenues par des États

OpenAI a publié un rapport exhaustif intitulé « Perturber les usages malveillants de l’IA : juin 2025 », révélant comment l’entreprise a identifié et neutralisé 10 campagnes malveillantes ayant exploité ses systèmes d’IA durant les premiers mois de 2025.

Le rapport détaille comment des acteurs soutenus par des États provenant de six pays — la Chine, la Russie, la Corée du Nord, l’Iran, le Cambodge et les Philippines — ont utilisé ChatGPT et d’autres outils d’IA pour mener des arnaques à l’emploi, des opérations d’influence et des campagnes de pourriel. Quatre de ces campagnes provenaient de la Chine, axées sur l’ingénierie sociale, des opérations d’influence secrètes et des menaces informatiques.

Dans une campagne baptisée « Sneer Review », des acteurs chinois ont inondé les plateformes sociales de commentaires critiques visant un jeu de société taïwanais abordant des thèmes de résistance contre le Parti communiste chinois. Une autre opération, « Helgoland Bite », impliquait des acteurs russes générant du contenu en allemand critiquant les États-Unis et l’OTAN, tout en tentant d’influencer l’élection allemande de 2025. Des acteurs nord-coréens ont été observés utilisant l’IA pour produire en masse de faux CV pour des postes technologiques à distance, dans le but d’obtenir le contrôle d’appareils d’entreprise remis lors de l’intégration.

Les équipes de sécurité d’OpenAI ont utilisé l’IA comme multiplicateur d’efforts dans leurs enquêtes, leur permettant de détecter, perturber et exposer des activités abusives telles que l’ingénierie sociale, l’espionnage informatique et les stratagèmes d’emploi trompeurs. Les systèmes de détection de l’entreprise ont signalé des comportements inhabituels dans toutes les campagnes, menant à la fermeture de comptes et au partage de renseignements avec des plateformes partenaires.

« Nous croyons que le partage et la transparence favorisent une meilleure sensibilisation et préparation de tous les intervenants, menant à une défense collective plus forte contre des adversaires en constante évolution », a déclaré OpenAI dans son rapport. Bien que l’IA générative n’ait pas créé de nouvelles catégories de menaces, elle a considérablement abaissé les barrières techniques pour les acteurs malveillants et accru l’efficacité des attaques coordonnées.

Des experts en sécurité soulignent que les organisations doivent demeurer vigilantes quant à la façon dont les adversaires adoptent les grands modèles de langage dans leurs opérations et s’engager avec les renseignements en temps réel partagés par des entreprises comme OpenAI, Google, Meta et Anthropic afin de bâtir des défenses collectives plus robustes contre ces menaces en évolution.

Source: Techrepublic

Latest News