menu
close

OpenAI détecte une augmentation de l’utilisation abusive de ChatGPT par des groupes chinois pour des opérations clandestines

Le 5 juin 2025, OpenAI a signalé qu’un nombre croissant de groupes chinois exploitent sa technologie d’intelligence artificielle pour des opérations clandestines, notamment la génération de contenus polarisants sur les réseaux sociaux et le soutien à des activités cyber. Bien que ces opérations se soient développées en termes d’ampleur et de tactiques, elles restent relativement limitées avec une portée restreinte. Ces conclusions soulignent les préoccupations persistantes concernant le potentiel de détournement de l’IA générative pour créer des textes, images et sons à des fins malveillantes.
OpenAI détecte une augmentation de l’utilisation abusive de ChatGPT par des groupes chinois pour des opérations clandestines

OpenAI a identifié une tendance croissante de groupes chinois détournant sa technologie d’intelligence artificielle à des fins d’opérations clandestines, selon un rapport publié le 5 juin. L’entreprise basée à San Francisco, récemment valorisée à 300 milliards de dollars après une levée de fonds record de 40 milliards, a pris des mesures en bannissant plusieurs comptes liés à ces activités.

Dans un cas notable, surnommé « Sneer Review » par les enquêteurs d’OpenAI, des opérateurs ont généré des publications sur les réseaux sociaux portant sur des sujets politiquement sensibles pour la Chine. Parmi ces contenus figuraient des critiques d’un jeu vidéo centré sur Taïwan, de fausses accusations contre une militante pakistanaise, ainsi que des publications sur la fermeture de l’USAID. Certains messages critiquaient également la politique tarifaire du président américain Donald Trump. L’opération était suffisamment sophistiquée pour générer à la fois des publications et des commentaires, créant ainsi une apparence d’engagement organique.

Une seconde opération impliquait des acteurs malveillants liés à la Chine utilisant ChatGPT pour soutenir différentes phases de leurs activités cyber. Cela incluait la recherche open source, la modification de scripts, le dépannage de configurations système et le développement d’outils pour le forçage de mots de passe et l’automatisation des réseaux sociaux. Fait particulièrement préoccupant, il a été découvert que ces acteurs utilisaient les outils d’OpenAI pour rédiger des documents internes, notamment des évaluations de performance détaillant leurs activités.

Un troisième exemple a révélé une opération d’influence d’origine chinoise générant des contenus polarisants sur les réseaux sociaux, soutenant les deux camps de sujets clivants au sein du débat politique américain. Cette approche semble viser à exploiter les divisions politiques existantes plutôt qu’à promouvoir une idéologie précise. Ben Nimmo, enquêteur principal de l’équipe renseignement d’OpenAI, a souligné que, bien que ces opérations témoignent « d’une gamme croissante d’opérations clandestines utilisant des tactiques de plus en plus variées », elles sont généralement interrompues à un stade précoce avant d’atteindre un large public.

Le rapport d’OpenAI mentionne également la perturbation d’opérations d’influence clandestines provenant d’autres pays, dont la Russie et l’Iran, ainsi que diverses escroqueries liées au Cambodge et à la Corée du Nord. L’entreprise surveille et signale régulièrement les activités malveillantes sur sa plateforme dans le cadre de son engagement pour un développement responsable de l’IA.

Le ministère chinois des Affaires étrangères n’a pas répondu aux demandes de commentaires concernant les conclusions d’OpenAI.

Source:

Latest News