في خطوة استراتيجية أعقبت تطورات تشريعية هامة، كشفت شركة Anthropic عن إطار شفاف وشامل لأنظمة الذكاء الاصطناعي المتقدمة قد يعيد تشكيل معايير الصناعة فيما يتعلق بالأمان والمساءلة.
في 7 يوليو 2025، وبعد أيام قليلة من تصويت مجلس الشيوخ الأمريكي بأغلبية 99 مقابل 1 لإلغاء وقف مثير للجدل مدته عشر سنوات على تنظيم الذكاء الاصطناعي من مشروع قانون السياسات الداخلية للرئيس ترامب، قدمت Anthropic ما أسمته "إطار الشفافية الموجه" الذي يهدف إلى تحقيق توازن بين الابتكار والتطوير المسؤول.
يستهدف الإطار بشكل متعمد أكبر مطوري الذكاء الاصطناعي فقط، مع إعفاء الشركات الصغيرة والشركات الناشئة من متطلبات قد تكون مرهقة. وتقترح Anthropic معايير محددة—مثل تحقيق إيرادات سنوية تتجاوز 100 مليون دولار أو إنفاق أكثر من مليار دولار على البحث والتطوير—لتحديد الشركات التي ستخضع لمتطلبات الإفصاح ضمن الإطار.
وقالت الشركة في إعلانها: "بينما يعمل القطاع والحكومات والأوساط الأكاديمية وغيرها على تطوير معايير أمان متفق عليها وطرق تقييم شاملة—وهي عملية قد تستغرق من شهور إلى سنوات—نحتاج إلى خطوات مرحلية لضمان تطوير الذكاء الاصطناعي القوي بشكل آمن ومسؤول وشفاف".
يرتكز الإطار على إلزام الشركات المؤهلة بوضع ونشر "إطار تطوير آمن" يوضح كيفية تقييمها للمخاطر الجسيمة والتقليل منها، بما في ذلك المخاطر المتعلقة بسوء استخدام المواد الكيميائية أو البيولوجية أو الإشعاعية أو النووية، إضافة إلى الأضرار المحتملة الناتجة عن استقلالية النماذج غير المنضبطة. كما يتوجب على الشركات نشر بطاقات نظام تلخص إجراءات الاختبار، وتطبيق سياسات لحماية المبلغين عن المخالفات.
وقد نال هذا المقترح إشادة من مجموعات الدفاع عن الذكاء الاصطناعي، حيث قال إريك غاستفريند، المدير التنفيذي لمنظمة الأمريكيين من أجل الابتكار المسؤول: "إطار Anthropic يطور بعض متطلبات الشفافية الأساسية التي نحتاجها، مثل الإفصاح عن خطط تقليل المخاطر ومساءلة المطورين عن تنفيذها". ويعكس النهج المرن والخفيف لهذا الإطار سرعة تطور تقنيات الذكاء الاصطناعي، مع وضع توقعات أساسية للتطوير المسؤول.