In einer ironischen Wendung, die die Herausforderungen bei der Einführung von KI in professionellen Umgebungen verdeutlicht, hat Anthropics eigene Claude AI dem Unternehmen vor Gericht Probleme bereitet.
Am Donnerstag, den 15. Mai 2025, entschuldigte sich die Anwältin Ivana Dukanovic von Latham & Watkins förmlich bei einem Bundesgericht in Nordkalifornien, nachdem sie Claude zur Erstellung eines juristischen Zitats genutzt hatte, das erfundene Informationen enthielt. Das halluzinierte Zitat tauchte in einer Erklärung der Anthropic-Datenwissenschaftlerin Olivia Chen auf, die als Sachverständige im laufenden Urheberrechtsstreit des Unternehmens mit Musikverlagen aussagte.
Die Klage, eingereicht von Universal Music Group, Concord und ABKCO, wirft Anthropic vor, urheberrechtlich geschützte Songtexte zum Training des Claude-AI-Modells missbraucht zu haben. Die Verlage behaupten, die KI sei mit Texten von mindestens 500 Songs von Künstlern wie Beyoncé, den Rolling Stones und den Beach Boys ohne entsprechende Genehmigung trainiert worden.
Gerichtsunterlagen zufolge bat Dukanovic Claude darum, ein Zitat für einen legitimen Fachartikel aus The American Statistician zu formatieren, auf den Chen sich bezogen hatte. Während Claude den korrekten Zeitschriftentitel, das Jahr und den Link lieferte, erfand die KI falsche Autoren und einen unzutreffenden Titel. Die „manuelle Zitatprüfung“ der Anwältin übersah diese Fehler vor der Einreichung.
US-Magistratsrichterin Susan van Keulen äußerte große Besorgnis über den Vorfall und wies darauf hin, dass „zwischen einem übersehenen Zitat und einer von KI erzeugten Halluzination Welten liegen“. Als Reaktion darauf hat Latham & Watkins „mehrere zusätzliche Überprüfungsebenen“ eingeführt, um ähnliche Vorfälle künftig zu verhindern.
Dieser Fall reiht sich in eine wachsende Liste von KI-Halluzinationen in Gerichtsverfahren ein. Bereits Anfang des Monats verhängte ein kalifornischer Richter Sanktionen gegen zwei Kanzleien, weil sie „falsche, KI-generierte Recherchen“ eingereicht hatten, und ordnete die Zahlung von 31.100 Dollar an Anwaltskosten an. In einem weiteren aktuellen Fall wurde ein Anwalt entlassen, nachdem er ChatGPT zur Erstellung gefälschter juristischer Zitate verwendet hatte. Rechtsexperten warnen, dass KI-Tools zwar beim Brainstorming nützlich sein können, aber traditionelle juristische Recherche und Überprüfung nicht ersetzen können.
Mit der zunehmenden Verbreitung von KI in professionellen Bereichen dient dieser Vorfall als warnendes Beispiel für die Grenzen der Technologie und die entscheidende Bedeutung menschlicher Kontrolle – insbesondere in Hochrisikoumgebungen wie Gerichtssälen, in denen Genauigkeit und Glaubwürdigkeit oberste Priorität haben.