menu
close

AI模型在博弈论测试中展现类人社交技能

研究人员发现,大型语言模型(LLMs)在博弈论框架下展现出复杂的社会推理能力。一项由Eric Schulz博士领导的研究表明,这些AI系统在自利决策方面表现出色,但在协调与团队合作任务中仍有不足。研究团队提出了一种名为“社会链式思维”(SCoT)的新方法,通过引导模型考虑他人视角,显著提升了AI的合作行为。
AI模型在博弈论测试中展现类人社交技能

像GPT-4这样的大型语言模型正日益融入我们的日常生活,从撰写邮件到辅助医疗决策。随着这些AI系统的普及,理解其社交能力对于实现高效的人机协作变得至关重要。

由Helmholtz慕尼黑研究中心、马克斯·普朗克生物网络研究所和图宾根大学的研究人员在《自然·人类行为》杂志上发表了一项开创性研究,系统评估了LLMs在行为博弈论框架下的社交表现。

由Eric Schulz博士领导的研究团队让多种AI模型参与了经典的博弈论场景,以测试其在合作、竞争和战略决策中的表现。研究结果揭示了AI社交能力的复杂图景。

“在某些情况下,AI似乎理性得过了头,”Schulz博士解释道,“它可以立刻识别威胁或自私行为,并做出报复反应,但却难以看到信任、合作与妥协的大局。”

研究发现,LLMs在如重复囚徒困境等以自利为主的游戏中表现尤为突出,在这些场景下保护自身利益至关重要。然而,在需要协调与相互妥协的游戏(如“性别之争”)中,AI的表现则不尽如人意。

最令人期待的是,研究团队开发了一种名为“社会链式思维”(SCoT)的技术,通过引导AI在决策前考虑他人视角,这一简单干预显著提升了模型的合作性和适应性,即使在与人类玩家互动时亦如此。论文第一作者Elif Akata指出:“一旦我们推动模型进行社会化推理,它的行为就变得更加贴近人类。”

这一发现的意义远超博弈论本身。随着LLMs在医疗、商业和社会场景中的深入应用,其理解人类社会动态的能力将变得至关重要。本研究为AI系统在复杂社会环境中的表现提供了宝贵见解,并提出了切实可行的提升社交智能的方法。

Source:

Latest News