menu
close

Claude AI:n oikeudellinen viittausmoka saattaa Anthropicin vaikeuksiin

Anthropicin lakitoimisto Latham & Watkins on myöntänyt, että sen asianajaja käytti Claude AI:ta tuottamaan viittauksen musiikkikustantajien tekijänoikeuskiistassa, mikä johti hallusinoituun lähteeseen tekaistuine kirjoittajineen ja otsikoineen. Tapaus sattui, kun asianajaja Ivana Dukanovic hyödynsi Anthropicin omaa tekoälyä muotoillakseen viittauksen aitoon tieteelliseen artikkeliin, mutta ei huomannut virheitä tarkistuksessa. Yhdysvaltain tuomari Susan van Keulen kuvaili tilannetta 'erittäin vakavaksi', mikä korostaa kasvavia huolia tekoälyn luotettavuudesta oikeudellisissa yhteyksissä.
Claude AI:n oikeudellinen viittausmoka saattaa Anthropicin vaikeuksiin

Ironinen käänne korostaa tekoälyn käyttöönoton haasteita ammatillisissa ympäristöissä: Anthropicin oma Claude AI on aiheuttanut yhtiölle ongelmia oikeudessa.

Torstaina 15. toukokuuta 2025 asianajaja Ivana Dukanovic Latham & Watkinsilta esitti virallisen anteeksipyynnön Pohjois-Kalifornian liittovaltion tuomioistuimelle käytettyään Claudea tuottamaan oikeudellisen viittauksen, joka sisälsi keksittyä tietoa. Hallusinoitu viittaus esiintyi Anthropicin data-analyytikko Olivia Chenin lausunnossa, jossa tämä toimi asiantuntijatodistajana yhtiön meneillään olevassa tekijänoikeuskiistassa musiikkikustantajien kanssa.

Universal Music Groupin, Concordin ja ABKCO:n nostamassa kanteessa väitetään, että Anthropic käytti luvatta suojattuja laulunsanoituksia Claude AI -mallinsa kouluttamiseen. Kustantajien mukaan tekoälyä koulutettiin vähintään 500 artistin, kuten Beyoncén, The Rolling Stonesin ja The Beach Boysin, kappaleiden sanoituksilla ilman asianmukaista lupaa.

Oikeusasiakirjojen mukaan Dukanovic pyysi Claudea muotoilemaan viittauksen aitoon The American Statistician -lehden tieteelliseen artikkeliin, johon Chen oli viitannut. Vaikka Claude antoi oikean julkaisun nimen, vuoden ja linkin, se keksi olemattomat kirjoittajat ja virheellisen otsikon. Asianajajan 'manuaalinen viittaustarkistus' ei paljastanut näitä virheitä ennen asiakirjan jättämistä.

Yhdysvaltain tuomari Susan van Keulen ilmaisi vakavan huolensa tapauksesta ja totesi, että 'on valtava ero unohtuneen viittauksen ja tekoälyn tuottaman hallusinaation välillä.' Vastauksena Latham & Watkins on ottanut käyttöön 'useita uusia tarkistustasoja' vastaavien tapausten ehkäisemiseksi.

Tapaus liittyy kasvavaan joukkoon tekoälyn hallusinaatioihin liittyviä oikeudellisia tapauksia. Aiemmin tässä kuussa kalifornialainen tuomari määräsi kaksi lakitoimistoa maksamaan 31 100 dollarin oikeudenkäyntikulut 'perättömän tekoälyn tuottaman tutkimuksen' vuoksi. Toisessa tuoreessa tapauksessa asianajaja erotettiin käytettyään ChatGPT:tä tekaistujen oikeudellisten viittausten laatimiseen. Oikeusalan asiantuntijat varoittavat, että tekoälytyökalut voivat olla hyödyllisiä ideoinnissa, mutta eivät voi korvata perinteistä oikeudellista tutkimusta ja tarkistusta.

Tekoälyn käytön yleistyessä ammatillisilla aloilla tämä tapaus toimii varoittavana esimerkkinä teknologian rajoituksista ja ihmisen valvonnan kriittisestä merkityksestä – etenkin korkean riskin ympäristöissä, kuten oikeussaleissa, joissa tarkkuus ja uskottavuus ovat ensiarvoisen tärkeitä.

Source:

Latest News