OpenAIは「AIの悪用阻止:2025年6月」と題した包括的なレポートを発表し、2025年初頭に自社のAIシステムを悪用した10件の悪意あるキャンペーンを特定・無力化した経緯を明らかにした。
レポートによれば、中国、ロシア、北朝鮮、イラン、カンボジア、フィリピンの6カ国の国家支援組織が、ChatGPTやその他のAIツールを利用して就職詐欺、影響工作、スパムキャンペーンを展開していた。中でも中国発のキャンペーンは4件に上り、ソーシャルエンジニアリングや隠密な影響工作、サイバー脅威に焦点を当てていた。
「Sneer Review」と呼ばれるキャンペーンでは、中国の関係者が中国共産党への抵抗をテーマにした台湾のボードゲームを標的とし、批判的なコメントをソーシャルプラットフォーム上に大量投稿した。また「Helgoland Bite」作戦では、ロシアの関係者がドイツ語で米国やNATOを批判するコンテンツを生成し、2025年のドイツ選挙への影響を狙った。北朝鮮の関係者は、AIを使ってリモート技術職向けの偽履歴書を大量作成し、入社時に企業デバイスを乗っ取ることを目指していた。
OpenAIのセキュリティチームは、調査活動の「フォースマルチプライヤー」としてAIを活用し、ソーシャルエンジニアリング、サイバー諜報、偽装就職スキームなどの悪用行為を検知・阻止・公開した。同社の検知システムは全てのキャンペーンで異常な挙動を検出し、アカウントの停止やパートナープラットフォームとの情報共有につながった。
「共有と透明性が全ての関係者の認識と備えを高め、進化し続ける敵に対するより強固な集団防衛につながると信じています」とOpenAIはレポートで述べている。生成AIは全く新しい脅威カテゴリを生み出したわけではないが、悪意ある行為者にとって技術的障壁を大幅に下げ、協調攻撃の効率を高めている。
セキュリティ専門家は、組織が敵対者による大規模言語モデルの活用状況に常に警戒し、OpenAIやGoogle、Meta、Anthropicなどが提供するリアルタイムのインテリジェンスを活用して、進化する脅威に対する集団防衛を強化する必要があると強調している。