menu
close

Το λάθος νομικής παραπομπής του Claude AI φέρνει την Anthropic σε δύσκολη θέση

Η δικηγορική εταιρεία της Anthropic, Latham & Watkins, παραδέχθηκε ότι η δικηγόρος της χρησιμοποίησε το Claude AI για να δημιουργήσει παραπομπή σε αγωγή για πνευματικά δικαιώματα μουσικών εκδοτών, με αποτέλεσμα μια παραπομπή-ψευδαίσθηση με ανύπαρκτους συγγραφείς και τίτλο. Το περιστατικό συνέβη όταν η δικηγόρος Ivana Dukanovic χρησιμοποίησε το AI της Anthropic για να μορφοποιήσει παραπομπή σε υπαρκτό ακαδημαϊκό άρθρο, αλλά δεν εντόπισε τα λάθη κατά τον έλεγχο. Η δικαστής Susan van Keulen χαρακτήρισε το περιστατικό «πολύ σοβαρό ζήτημα», αναδεικνύοντας τις αυξανόμενες ανησυχίες για την αξιοπιστία της τεχνητής νοημοσύνης σε νομικά πλαίσια.
Το λάθος νομικής παραπομπής του Claude AI φέρνει την Anthropic σε δύσκολη θέση

Με μια ειρωνική τροπή που αναδεικνύει τις προκλήσεις της υιοθέτησης της τεχνητής νοημοσύνης σε επαγγελματικά περιβάλλοντα, το Claude AI της ίδιας της Anthropic δημιούργησε προβλήματα για την εταιρεία στο δικαστήριο.

Την Πέμπτη 15 Μαΐου 2025, η δικηγόρος Ivana Dukanovic από τη Latham & Watkins ζήτησε επίσημα συγγνώμη από ομοσπονδιακό δικαστήριο της Βόρειας Καλιφόρνια, αφού χρησιμοποίησε το Claude για να δημιουργήσει νομική παραπομπή που περιείχε κατασκευασμένες πληροφορίες. Η ψευδής παραπομπή εμφανίστηκε σε δήλωση της επιστήμονα δεδομένων της Anthropic, Olivia Chen, η οποία κατέθετε ως εμπειρογνώμονας στη συνεχιζόμενη διαμάχη της εταιρείας για πνευματικά δικαιώματα με μουσικούς εκδότες.

Η αγωγή, που κατατέθηκε από τις Universal Music Group, Concord και ABKCO, ισχυρίζεται ότι η Anthropic έκανε κατάχρηση προστατευμένων στίχων τραγουδιών για την εκπαίδευση του μοντέλου Claude AI. Οι εκδότες υποστηρίζουν ότι το AI εκπαιδεύτηκε σε στίχους τουλάχιστον 500 τραγουδιών καλλιτεχνών όπως η Beyoncé, οι Rolling Stones και οι Beach Boys χωρίς την απαραίτητη άδεια.

Σύμφωνα με τα δικαστικά έγγραφα, η Dukanovic ζήτησε από το Claude να μορφοποιήσει παραπομπή για υπαρκτό ακαδημαϊκό άρθρο του περιοδικού The American Statistician που είχε αναφέρει η Chen. Ενώ το Claude παρείχε σωστά τον τίτλο του περιοδικού, το έτος και τον σύνδεσμο, επινόησε ανύπαρκτους συγγραφείς και ανακριβή τίτλο. Ο «χειροκίνητος έλεγχος παραπομπής» της δικηγόρου δεν εντόπισε αυτά τα λάθη πριν την υποβολή.

Η δικαστής Susan van Keulen εξέφρασε σοβαρή ανησυχία για το περιστατικό, σημειώνοντας πως «υπάρχει τεράστια διαφορά ανάμεσα σε μια παραλειφθείσα παραπομπή και μια παραπομπή-ψευδαίσθηση που παράγεται από AI». Σε απάντηση, η Latham & Watkins έχει εφαρμόσει «πολλαπλά επιπλέον επίπεδα ελέγχου» για να αποτρέψει παρόμοια περιστατικά.

Η υπόθεση αυτή προστίθεται σε μια αυξανόμενη λίστα περιστατικών ψευδαισθήσεων AI σε νομικές διαδικασίες. Νωρίτερα αυτόν τον μήνα, δικαστής στην Καλιφόρνια επέβαλε κυρώσεις σε δύο δικηγορικές εταιρείες για την υποβολή «ψευδούς έρευνας που παρήχθη από AI», διατάσσοντάς τες να πληρώσουν 31.100 δολάρια σε νομικά έξοδα. Σε άλλη πρόσφατη υπόθεση, δικηγόρος απολύθηκε αφού χρησιμοποίησε το ChatGPT για τη δημιουργία ψευδών νομικών παραπομπών. Νομικοί ειδικοί προειδοποιούν ότι τα εργαλεία AI μπορεί να είναι χρήσιμα για ιδέες, αλλά δεν μπορούν να αντικαταστήσουν την παραδοσιακή νομική έρευνα και τις διαδικασίες επαλήθευσης.

Καθώς η υιοθέτηση της τεχνητής νοημοσύνης επιταχύνεται σε επαγγελματικούς τομείς, το περιστατικό αυτό λειτουργεί ως προειδοποιητικό παράδειγμα για τους περιορισμούς της τεχνολογίας και τη ζωτική σημασία της ανθρώπινης επίβλεψης, ειδικά σε περιβάλλοντα υψηλού ρίσκου όπως τα δικαστήρια, όπου η ακρίβεια και η αξιοπιστία είναι υψίστης σημασίας.

Source:

Latest News