menu
close

Грешка с правна препратка на Claude AI поставя Anthropic в неудобно положение

Адвокатската кантора на Anthropic, Latham & Watkins, призна, че неин адвокат е използвал Claude AI за генериране на препратка в съдебно дело за авторски права, заведено от музикални издатели, което доведе до измислена препратка с фалшиви автори и заглавие. Инцидентът се случва, когато адвокат Ивана Дуканович използва собствената AI система на Anthropic, за да форматира препратка към легитимна академична статия, но не успява да забележи грешките при прегледа. Американската магистратка Сюзан ван Кюлен определи ситуацията като „много сериозен и тежък проблем“, подчертавайки нарастващите опасения относно надеждността на AI в юридическия контекст.
Грешка с правна препратка на Claude AI поставя Anthropic в неудобно положение

В ироничен обрат, който подчертава предизвикателствата при въвеждането на изкуствен интелект в професионалната сфера, собствената AI система на Anthropic – Claude AI – създаде проблеми за компанията в съда.

В четвъртък, 15 май 2025 г., адвокат Ивана Дуканович от Latham & Watkins официално се извини пред федералния съд в Северна Калифорния, след като използва Claude за генериране на правна препратка, съдържаща измислена информация. Изфабрикуваната препратка се появява в декларация на Оливия Чен, специалист по данни в Anthropic, която е експертен свидетел в текущото дело за авторски права между компанията и музикалните издатели.

Искът, подаден от Universal Music Group, Concord и ABKCO, твърди, че Anthropic е използвала защитени с авторски права текстове на песни за обучение на своя AI модел Claude. Издателите твърдят, че AI е бил обучаван с текстове от поне 500 песни на изпълнители като Бионсе, The Rolling Stones и The Beach Boys без необходимото разрешение.

Според съдебните документи, Дуканович е помолила Claude да форматира препратка към легитимна академична статия от списание The American Statistician, цитирана от Чен. Макар че Claude е предоставил правилното име на изданието, година и линк, той е измислил фалшиви автори и неточно заглавие. „Ръчната проверка на препратката“ от страна на адвоката не е успяла да улови тези грешки преди подаването на документа.

Американската магистратка Сюзан ван Кюлен изрази сериозно безпокойство относно инцидента, като отбеляза, че „има огромна разлика между пропусната препратка и халюцинация, генерирана от AI“. В отговор Latham & Watkins са въвели „множество допълнителни нива на преглед“, за да предотвратят подобни случаи в бъдеще.

Този случай се нарежда към нарастващия списък с инциденти, свързани с халюцинации на AI в съдебни производства. По-рано този месец съдия в Калифорния санкционира две адвокатски кантори за подаване на „фалшиви AI-генерирани изследвания“, като им нареди да платят 31 100 долара съдебни разноски. В друг скорошен случай адвокат беше уволнен, след като използва ChatGPT за генериране на фалшиви правни препратки. Юридически експерти предупреждават, че AI инструментите могат да са полезни за генериране на идеи, но не могат да заменят традиционните методи за правни изследвания и проверка.

С ускоряването на внедряването на AI в различни професионални сфери този инцидент служи като предупреждение за ограниченията на технологията и критичната необходимост от човешки надзор, особено в среди с висок залог като съдебните зали, където точността и достоверността са от първостепенно значение.

Source:

Latest News