サイバーセキュリティ研究者は、悪名高い悪質AIツール「WormGPT」の新たなバリアントが、xAIやMistral AIの商用大規模言語モデル(LLM)を活用し、より巧妙なサイバー攻撃を実現していることを明らかにした。
Cato Networksの脅威インテリジェンスチームは、BreachForumsなどのアンダーグラウンドフォーラムで販売されている、未報告のWormGPTバリアント2種を特定した。これらは「xzin0vich」と「keanu」と名乗るユーザーによって、それぞれ2024年10月と2025年2月に登場した。2023年に登場したオリジナルのWormGPTがオープンソースのGPT-Jモデルを利用していたのに対し、今回の新バリアントは根本的に異なるアプローチを取っている。
サイバー犯罪者は独自のAIモデルを一から構築するのではなく、既存の商用AIシステムに高度なラッパーを施している。ジェイルブレイク技術やシステムプロンプトの改変を通じて、イーロン・マスクのGrokやMistralのMixtralモデルの安全ガードレールを回避し、倫理的制約なしに悪質なコンテンツを生成させることに成功している。
「これら新しいWormGPTのバリアントは、ゼロから構築された専用モデルではなく、脅威アクターが既存のLLMを巧みに適応させた結果です」とCato Networksの研究者、ヴィタリー・シモノヴィッチ氏は説明する。この手法により、既存APIの適応は悪質なLLMを一から訓練するよりも遥かに容易で、サイバー犯罪者の参入障壁が大幅に下がっている。
両バリアントは、フィッシングメールやWindows 11システムから認証情報を窃取するPowerShellスクリプトなど、悪質なコンテンツを高精度で生成可能。これらはTelegramのチャットボットを通じてサブスクリプション形式(月額8ドル〜100ドル)で提供されている。
WormGPTの進化は、脅威アクターが高度なプロンプトエンジニアリングを駆使し、正規のAIサービスを悪用するというサイバー犯罪の新潮流を示している。セキュリティ専門家は、行動分析を用いた高度な脅威検知システムの導入、強固なアクセス制御、AI生成フィッシングを想定したセキュリティ教育の強化など、包括的な防御策の実施を推奨している。
AIが攻撃手段であると同時に標的にもなり得る今、組織は「最大のAI脅威が最も普及したプラットフォーム内部から生じる」という新たな現実に備える必要がある。