menu
close

网络犯罪分子利用Grok和Mixtral发起新型WormGPT攻击

网络安全研究人员发现了基于WormGPT的新型恶意AI变种,这些变种通过高级越狱技术滥用Grok和Mixtral等商用模型。自2025年初以来,这些工具已在地下论坛上流通,使网络犯罪分子能够以前所未有的精度生成具有欺骗性的钓鱼邮件、恶意软件脚本和自动化网络攻击。研究结果显示,威胁参与者正倾向于改造现有合法AI系统,而非从零开发定制模型。
网络犯罪分子利用Grok和Mixtral发起新型WormGPT攻击

网络安全研究人员近日揭露了臭名昭著的恶意AI工具WormGPT的新变种,这些变种现已利用来自xAI和Mistral AI的商用大语言模型(LLM),以推动更为复杂的网络攻击。

Cato Networks威胁情报团队在BreachForums等地下论坛上发现了两款此前未被公开报道的WormGPT变种。这两款变种分别由名为“xzin0vich”和“keanu”的用户开发,分别于2024年10月和2025年2月现身。与2023年最初基于开源GPT-J模型的WormGPT不同,这些新版本在攻击方式上实现了根本性转变。

网络犯罪分子不再从零开发定制AI模型,而是围绕现有商用AI系统构建了复杂的封装程序。通过越狱技术和操控系统提示词,他们成功绕过了Elon Musk的Grok和Mistral的Mixtral模型的安全防护机制,使其在无道德约束的情况下生成恶意内容。

Cato Networks研究员Vitaly Simonovich解释道:“这些新版本的WormGPT并非从头开发的专用模型,而是威胁参与者巧妙适配现有LLM的产物。”这一做法极大降低了网络犯罪的门槛,因为适配现有API远比从零训练恶意LLM要简单得多。

两款变种在收到指令后均可生成有害内容,包括高度逼真的钓鱼邮件,以及专为窃取Windows 11系统凭据设计的PowerShell脚本。它们通过Telegram聊天机器人以订阅制方式出售,价格从每月8美元到100美元不等。

WormGPT的演变反映了网络犯罪的更广泛趋势:威胁参与者正越来越多地通过高级提示工程手法,将合法AI服务用于恶意目的。安全专家建议企业实施全面防御策略,包括引入具备行为分析能力的威胁检测系统、强化访问控制,以及将AI生成钓鱼模拟纳入安全意识培训。

随着AI既成为攻击工具,也成为攻击目标,企业必须为这一新现实做好准备——最大的AI威胁,或许正来自最受欢迎的平台本身。

Source:

Latest News