في خطوة استراتيجية أعقبت تطورات تشريعية كبرى، كشفت شركة أنثروبيك عن إطار عمل شامل للشفافية يتعلق بأنظمة الذكاء الاصطناعي المتقدمة، قد يعيد تشكيل معايير الصناعة فيما يخص الأمان والمساءلة.
في 7 يوليو 2025، وبعد أيام فقط من تصويت مجلس الشيوخ الأمريكي بأغلبية 99 مقابل 1 لإلغاء الوقف المثير للجدل لمدة 10 سنوات على تنظيم الذكاء الاصطناعي على مستوى الولايات من مشروع قانون السياسة الداخلية للرئيس ترامب، أعلنت أنثروبيك عن ما أسمته "إطار الشفافية المستهدف"، والذي يهدف إلى تحقيق توازن بين الابتكار والتطوير المسؤول.
يركز الإطار بشكل متعمد على أكبر مطوري الذكاء الاصطناعي، مع إعفاء الشركات الصغيرة والشركات الناشئة من متطلبات قد تكون مرهقة. وتقترح أنثروبيك معايير محددة—مثل تحقيق إيرادات سنوية تتجاوز 100 مليون دولار أو إنفاق على البحث والتطوير يفوق مليار دولار سنوياً—لتحديد الشركات التي ستخضع لمتطلبات الإفصاح ضمن هذا الإطار.
وقالت أنثروبيك في بيانها: "بينما تعمل الصناعة والحكومات والجامعات وغيرها على تطوير معايير أمان متفق عليها وطرق تقييم شاملة—وهي عملية قد تستغرق شهوراً أو سنوات—نحتاج إلى خطوات مؤقتة لضمان تطوير الذكاء الاصطناعي القوي بشكل آمن ومسؤول وشفاف".
يرتكز الإطار على إلزام الشركات المؤهلة بوضع ونشر "إطار تطوير آمن" يوضح كيفية تقييمها للمخاطر الجسيمة والتقليل منها، بما في ذلك المخاطر المتعلقة بسوء استخدام التقنيات الكيميائية أو البيولوجية أو الإشعاعية أو النووية، إضافة إلى الأضرار المحتملة الناتجة عن استقلالية النماذج غير المنضبطة. كما يتعين على الشركات نشر بطاقات نظام تلخص إجراءات الاختبار وتطبيق حماية للمبلغين عن المخالفات.
حازت المبادرة على إشادة من مجموعات الدفاع عن الذكاء الاصطناعي، حيث صرح إريك غاستفريند، المدير التنفيذي لمنظمة الأمريكيين من أجل الابتكار المسؤول: "إطار أنثروبيك يحقق بعض متطلبات الشفافية الأساسية التي نحتاجها، مثل الإفصاح عن خطط الحد من المخاطر ومحاسبة المطورين على تنفيذها". ويعكس النهج المرن والخفيف لهذا الإطار سرعة تطور تقنيات الذكاء الاصطناعي، مع وضع توقعات أساسية للتطوير المسؤول.