menu
close

Claude AI法律引用失误令Anthropic陷入困境

Anthropic的律师事务所Latham & Watkins承认,其律师在音乐出版商的版权诉讼中使用Claude AI生成了一条引用,结果出现了虚构的作者和标题。事件发生在律师Ivana Dukanovic使用Anthropic自家的AI为一篇真实学术文章格式化引用时,但在审核过程中未能发现错误。美国联邦地方法官Susan van Keulen称此事为“非常严重和重大的问题”,凸显了AI在法律领域可靠性日益引发的担忧。
Claude AI法律引用失误令Anthropic陷入困境

在一次具有讽刺意味的事件中,Anthropic自家的Claude AI在法庭上为公司带来了麻烦,凸显了AI在专业场景应用中的挑战。

2025年5月15日(周四),Latham & Watkins律师Ivana Dukanovic在加州北区联邦法院正式致歉,原因是她使用Claude生成了一条包含虚假信息的法律引用。这条“幻觉”引用出现在Anthropic数据科学家Olivia Chen的声明中,Chen作为专家证人在公司与音乐出版商的持续版权诉讼中作证。

该诉讼由环球音乐集团(Universal Music Group)、Concord和ABKCO提起,指控Anthropic在训练Claude AI模型时滥用受版权保护的歌曲歌词。出版商称,AI未经授权便使用了包括Beyoncé、滚石乐队(The Rolling Stones)和海滩男孩(The Beach Boys)等艺术家的至少500首歌曲歌词进行训练。

据法庭文件显示,Dukanovic曾要求Claude为Chen引用的《美国统计学家》(The American Statistician)上的一篇真实学术期刊文章格式化引用。虽然Claude给出了正确的期刊名、年份和链接,但却虚构了作者和不准确的标题。律师的“人工引用检查”未能在提交前发现这些错误。

美国联邦地方法官Susan van Keulen对此事件表示严重关切,指出“漏掉引用与AI生成的幻觉之间有天壤之别”。对此,Latham & Watkins已实施“多层次的额外审核”以防类似事件再次发生。

此案成为法律程序中AI幻觉事件不断增加的又一例证。本月早些时候,加州一位法官因两家律师事务所提交“虚假的AI生成研究”而对其处以31,100美元的法律费用处罚。在另一近期案件中,一名律师因使用ChatGPT生成虚假法律引用而被解雇。法律专家警告称,AI工具可用于头脑风暴,但无法取代传统的法律研究和核查流程。

随着AI在各专业领域的加速应用,此事件为技术局限性及人工监督的关键重要性敲响了警钟,尤其是在法庭等对准确性和公信力要求极高的环境中。

Source:

Latest News