menu
close

Claude AI'nin Hukuki Atıf Hatası Anthropic'i Zor Duruma Soktu

Anthropic'in hukuk firması Latham & Watkins, bir avukatının Claude AI'yi müzik yayıncılarının açtığı telif hakkı davasında bir atıf üretmek için kullandığını ve bunun sonucunda sahte yazarlar ve başlık içeren hayali bir referans ortaya çıktığını kabul etti. Olay, avukat Ivana Dukanovic'in gerçek bir akademik makale için Anthropic'in kendi yapay zekasını atıf formatlamak amacıyla kullandığında, inceleme sırasında hataları fark edememesiyle yaşandı. ABD Sulh Hakimi Susan van Keulen, durumu 'çok ciddi ve vahim bir mesele' olarak nitelendirerek, hukuki bağlamlarda yapay zekanın güvenilirliğiyle ilgili artan endişelere dikkat çekti.
Claude AI'nin Hukuki Atıf Hatası Anthropic'i Zor Duruma Soktu

Profesyonel ortamlarda yapay zekâ kullanımının getirdiği zorlukları gözler önüne seren ironik bir gelişmede, Anthropic'in kendi Claude AI'si şirkete mahkemede sorun yaşattı.

15 Mayıs 2025 Perşembe günü, Latham & Watkins'ten avukat Ivana Dukanovic, Claude'u kullanarak uydurma bilgiler içeren bir hukuki atıf oluşturduktan sonra Kuzey Kaliforniya federal mahkemesinden resmen özür diledi. Hayali atıf, Anthropic veri bilimcisi Olivia Chen'in şirketin müzik yayıncılarıyla süren telif hakkı mücadelesinde uzman tanık olarak verdiği beyanda yer aldı.

Universal Music Group, Concord ve ABKCO tarafından açılan dava, Anthropic'in Claude AI modelini eğitmek için telif hakkına sahip şarkı sözlerini izinsiz kullandığını iddia ediyor. Yayıncılar, yapay zekânın Beyoncé, Rolling Stones ve The Beach Boys gibi sanatçılara ait en az 500 şarkının sözleriyle uygun izin olmadan eğitildiğini öne sürüyor.

Mahkeme belgelerine göre Dukanovic, Chen'in referans verdiği The American Statistician adlı akademik dergide yayımlanan gerçek bir makale için Claude'dan atıf formatlamasını istedi. Claude, doğru yayın başlığı, yıl ve bağlantıyı sağlasa da, sahte yazarlar ve yanlış bir başlık uydurdu. Avukatın 'manuel atıf kontrolü' bu hataları başvuru öncesinde fark edemedi.

ABD Sulh Hakimi Susan van Keulen, olayla ilgili ciddi endişelerini dile getirerek, 'Kaçırılmış bir atıf ile yapay zekâ tarafından üretilen bir hayal ürününün arasında büyük bir fark var.' dedi. Buna karşılık Latham & Watkins, benzer olayların önüne geçmek için 'birden fazla ek inceleme katmanı' uygulamaya koydu.

Bu vaka, hukuki süreçlerde yaşanan yapay zekâ halüsinasyonları listesine bir yenisini ekledi. Bu ayın başlarında, bir Kaliforniya hakimi, 'uydurma yapay zekâ araştırması' sunan iki hukuk firmasına 31.100 dolar avukatlık ücreti ödemeye hükmetmişti. Yakın zamanda başka bir olayda ise, bir avukat ChatGPT ile sahte hukuki atıflar ürettiği için işten çıkarıldı. Hukuk uzmanları, yapay zekâ araçlarının beyin fırtınası için faydalı olabileceğini ancak geleneksel hukuki araştırma ve doğrulama süreçlerinin yerini alamayacağını vurguluyor.

Profesyonel alanlarda yapay zekâ kullanımı hızla artarken, bu olay teknolojinin sınırlamaları ve özellikle mahkeme salonları gibi doğruluk ve güvenilirliğin hayati önem taşıdığı ortamlarda insan denetiminin kritik rolü konusunda uyarıcı bir örnek teşkil ediyor.

Source:

Latest News