Önemli yasal gelişmelerin ardından stratejik bir hamle yapan Anthropic, öncü yapay zeka sistemleri için güvenlik ve hesap verebilirlik konusunda sektör standartlarını yeniden şekillendirebilecek kapsamlı bir şeffaflık çerçevesi açıkladı.
7 Temmuz 2025'te, ABD Senatosu'nun Başkan Trump'ın iç politika paketinden eyaletlerin yapay zeka düzenlemelerine ilişkin tartışmalı 10 yıllık moratoryumu 99'a 1 oyla kaldırmasından sadece birkaç gün sonra, Anthropic, inovasyon ile sorumlu geliştirmeyi dengelemeyi amaçlayan "hedefe yönelik bir şeffaflık çerçevesi"ni tanıttı.
Bu çerçeve, kasıtlı olarak yalnızca en büyük yapay zeka geliştiricilerini hedef alırken, küçük şirketleri ve girişimleri potansiyel olarak ağır yükümlülüklerden koruyor. Anthropic, çerçevenin açıklama yükümlülüklerinin hangi şirketlere uygulanacağını belirlemek için yıllık 100 milyon doların üzerinde gelir veya 1 milyar doların üzerinde Ar-Ge harcaması gibi belirli eşikler öneriyor.
Anthropic, duyurusunda şu ifadeleri kullandı: "Sektör, hükümetler, akademi ve diğer paydaşlar üzerinde uzlaşılmış güvenlik standartları ve kapsamlı değerlendirme yöntemleri geliştirmek için çalışırken—ki bu süreç aylar hatta yıllar sürebilir—çok güçlü yapay zekanın güvenli, sorumlu ve şeffaf bir şekilde geliştirilmesini sağlamak için ara adımlara ihtiyacımız var."
Çerçevenin merkezinde, uygun şirketlerin kimyasal, biyolojik, radyolojik ve nükleer kötüye kullanım riskleri ile model özerkliğinin yanlış hizalanmasından doğabilecek zararlar dahil olmak üzere ciddi riskleri nasıl değerlendirdiklerini ve hafiflettiğini ayrıntılı olarak açıklayan bir "Güvenli Geliştirme Çerçevesi" hazırlayıp kamuya açıklama zorunluluğu yer alıyor. Şirketlerin ayrıca test prosedürlerini özetleyen sistem kartları yayımlamaları ve muhbir koruma önlemleri uygulamaları gerekecek.
Teklif, yapay zeka savunuculuğu gruplarından övgü aldı. Americans for Responsible Innovation'ın icra direktörü Eric Gastfriend, "Anthropic'in çerçevesi, risklerin azaltılmasına yönelik planların yayımlanması ve geliştiricilerin bu planlara karşı sorumlu tutulması gibi ihtiyaç duyduğumuz temel şeffaflık gerekliliklerinden bazılarını ilerletiyor" dedi. Çerçevenin hafif ve esnek yaklaşımı, yapay zeka teknolojisinin hızla değişen doğasını kabul ederken, sorumlu geliştirme için asgari beklentiler de oluşturuyor.