网络安全研究人员近日揭露了臭名昭著的恶意AI工具WormGPT的新变种,这些变种现已利用来自xAI和Mistral AI的商用大语言模型(LLM),以推动更为复杂的网络攻击。
Cato Networks威胁情报团队在BreachForums等地下论坛上发现了两款此前未被公开报道的WormGPT变种。这两款变种分别由名为“xzin0vich”和“keanu”的用户开发,分别于2024年10月和2025年2月现身。与2023年最初基于开源GPT-J模型的WormGPT不同,这些新版本在攻击方式上实现了根本性转变。
网络犯罪分子不再从零开发定制AI模型,而是围绕现有商用AI系统构建了复杂的封装程序。通过越狱技术和操控系统提示词,他们成功绕过了Elon Musk的Grok和Mistral的Mixtral模型的安全防护机制,使其在无道德约束的情况下生成恶意内容。
Cato Networks研究员Vitaly Simonovich解释道:“这些新版本的WormGPT并非从头开发的专用模型,而是威胁参与者巧妙适配现有LLM的产物。”这一做法极大降低了网络犯罪的门槛,因为适配现有API远比从零训练恶意LLM要简单得多。
两款变种在收到指令后均可生成有害内容,包括高度逼真的钓鱼邮件,以及专为窃取Windows 11系统凭据设计的PowerShell脚本。它们通过Telegram聊天机器人以订阅制方式出售,价格从每月8美元到100美元不等。
WormGPT的演变反映了网络犯罪的更广泛趋势:威胁参与者正越来越多地通过高级提示工程手法,将合法AI服务用于恶意目的。安全专家建议企业实施全面防御策略,包括引入具备行为分析能力的威胁检测系统、强化访问控制,以及将AI生成钓鱼模拟纳入安全意识培训。
随着AI既成为攻击工具,也成为攻击目标,企业必须为这一新现实做好准备——最大的AI威胁,或许正来自最受欢迎的平台本身。