OpenAI近日发布了一份题为《打击AI恶意用途:2025年6月》的综合报告,披露公司在2025年初识别并阻止了10起利用其AI系统的恶意行动。
报告详细说明,来自中国、俄罗斯、朝鲜、伊朗、柬埔寨和菲律宾六国的国家支持行为者,正在利用ChatGPT及其他AI工具实施招聘诈骗、影响力行动和垃圾信息活动。其中,四起行动源自中国,重点针对社会工程、隐蔽影响力操作及网络威胁。
在一项名为“Sneer Review(冷嘲热讽评论)”的行动中,中国行为者在社交平台上大量发布批评性评论,针对一款包含反对中国共产党主题的台湾桌游。另一项名为“Helgoland Bite(赫尔戈兰之咬)”的行动中,俄罗斯行为者生成德语内容,批评美国和北约,并试图影响2025年德国大选。报告还观察到,朝鲜行为者利用AI大规模生成虚假简历,申请远程技术岗位,意图在入职后获取企业设备的控制权。
OpenAI的安全团队将AI作为调查工作的倍增器,能够检测、干扰并揭露包括社会工程、网络间谍和虚假招聘在内的滥用行为。公司检测系统在所有行动中均发现异常行为,最终导致相关账户被终止,并与合作平台共享情报。
OpenAI在报告中表示:“我们相信,信息共享与透明能够提升各方的认知和准备,从而在面对不断演变的对手时,构建更强大的集体防御。”虽然生成式AI尚未创造出全新的威胁类型,但它大幅降低了恶意行为者的技术门槛,并提升了协同攻击的效率。
安全专家强调,组织必须警惕对手如何在其行动中采用大型语言模型,并积极参与OpenAI、Google、Meta和Anthropic等公司实时共享的情报,以共同构建更强大的集体防御,应对这些不断演变的威胁。