AIの導入が専門分野で進む中、Anthropic自身のClaude AIが法廷で同社にトラブルをもたらすという皮肉な事態が発生した。
2025年5月15日(木)、Latham & Watkinsの弁護士Ivana Dukanovic氏は、Claudeを使って生成した法的引用に虚偽情報が含まれていたことについて、カリフォルニア北部連邦地方裁判所に正式に謝罪した。この“幻覚”引用は、AnthropicのデータサイエンティストであるOlivia Chen氏が専門家証人として提出した宣誓供述書内に記載されていた。同社は現在、音楽出版社との著作権訴訟の渦中にある。
この訴訟は、Universal Music Group、Concord、ABKCOが提起したもので、AnthropicがClaude AIモデルの訓練に著作権で保護された楽曲の歌詞を無断使用したと主張している。出版社側は、Beyoncé、The Rolling Stones、The Beach Boysなどのアーティストによる少なくとも500曲の歌詞が、適切な許可なくAIの訓練に使われたと訴えている。
裁判資料によれば、Dukanovic氏はOlivia Chen氏が引用した『The American Statistician』の正当な学術論文について、Claudeに引用形式の整形を依頼した。Claudeは正しい雑誌名、発行年、リンクを返したものの、著者名とタイトルは架空のものを生成していた。弁護士による「手動の引用チェック」でもこれらの誤りは見逃され、提出に至った。
Susan van Keulen判事は、この件について「単なる引用漏れとAIが生み出す幻覚には大きな違いがある」と深刻な懸念を表明。Latham & Watkinsは再発防止のため「複数段階の追加レビュー」を導入したと明らかにした。
この事件は、法的手続きにおけるAIの“幻覚”問題が相次ぐ中で発生した。今月初めにも、カリフォルニア州の裁判官が「虚偽のAI生成リサーチ」を提出した2つの法律事務所に対し、訴訟費用として31,100ドルの支払いを命じている。また、別のケースでは、ChatGPTで偽の法的引用を作成した弁護士が解雇される事態も起きた。法律専門家は、AIツールは発想支援には有用だが、従来の法的リサーチや検証プロセスの代替にはならないと警鐘を鳴らしている。
専門分野でAIの導入が加速する中、本件は技術の限界と、人間による監督の重要性、特に正確性と信頼性が最重要となる法廷のような場では不可欠であることを強く示す警告となった。