menu
close

Anthropic ने AI पारदर्शिता के लिए लक्षित फ्रेमवर्क पेश किया

जुलाई 2025 की शुरुआत में सीनेट द्वारा प्रस्तावित AI रेगुलेशन पर रोक को निर्णायक रूप से खारिज करने के बाद, Anthropic ने फ्रंटियर AI विकास पर केंद्रित एक लक्षित पारदर्शिता फ्रेमवर्क पेश किया है। यह फ्रेमवर्क सुरक्षा प्रथाओं के लिए विशिष्ट प्रकटीकरण आवश्यकताएँ स्थापित करता है और केवल सबसे बड़े AI डेवलपर्स पर लागू होता है, जिससे उद्योग की आत्म-नियमन की दिशा में संतुलित दृष्टिकोण बनता है। यह पहल व्यापक संघीय कानून की अनुपस्थिति में AI उद्योग की जवाबदेही के दृष्टिकोण में एक महत्वपूर्ण बदलाव का प्रतिनिधित्व करती है।
Anthropic ने AI पारदर्शिता के लिए लक्षित फ्रेमवर्क पेश किया

महत्वपूर्ण विधायी घटनाक्रमों के बाद, Anthropic ने फ्रंटियर AI प्रणालियों के लिए एक व्यापक पारदर्शिता फ्रेमवर्क पेश किया है, जो सुरक्षा और जवाबदेही के लिए उद्योग मानकों को नया आकार दे सकता है।

7 जुलाई, 2025 को, जब अमेरिकी सीनेट ने राष्ट्रपति ट्रंप की घरेलू नीति विधेयक से राज्य AI रेगुलेशन पर 10 साल की विवादित रोक को 99-1 के भारी बहुमत से हटा दिया, Anthropic ने एक 'लक्षित पारदर्शिता फ्रेमवर्क' पेश किया, जिसका उद्देश्य नवाचार और जिम्मेदार विकास के बीच संतुलन बनाना है।

यह फ्रेमवर्क जानबूझकर केवल सबसे बड़े AI डेवलपर्स को लक्षित करता है, जबकि छोटे व्यवसायों और स्टार्टअप्स को संभावित बोझिल आवश्यकताओं से बचाता है। Anthropic ने वार्षिक राजस्व $100 मिलियन से अधिक या R&D व्यय $1 बिलियन से अधिक जैसी विशिष्ट सीमाएँ प्रस्तावित की हैं, जिनके आधार पर यह तय होगा कि किन कंपनियों पर इस फ्रेमवर्क के प्रकटीकरण दायित्व लागू होंगे।

Anthropic ने अपनी घोषणा में कहा, "जब तक उद्योग, सरकारें, अकादमिक जगत और अन्य मिलकर सहमत सुरक्षा मानकों और व्यापक मूल्यांकन विधियों का विकास कर रहे हैं—जो प्रक्रिया महीनों से लेकर वर्षों तक चल सकती है—हमें यह सुनिश्चित करने के लिए अंतरिम कदम उठाने होंगे कि अत्यंत शक्तिशाली AI सुरक्षित, जिम्मेदार और पारदर्शी तरीके से विकसित हो।"

इस फ्रेमवर्क का मुख्य आधार यह है कि पात्र कंपनियाँ एक 'सुरक्षित विकास फ्रेमवर्क' तैयार करें और सार्वजनिक रूप से उसका खुलासा करें, जिसमें यह बताया जाए कि वे गंभीर जोखिमों—जैसे रासायनिक, जैविक, रेडियोलॉजिकल और न्यूक्लियर दुरुपयोग, साथ ही असंगत मॉडल स्वायत्तता से उत्पन्न संभावित नुकसान—का आकलन और शमन कैसे करती हैं। कंपनियों को परीक्षण प्रक्रियाओं का सारांश देने वाले सिस्टम कार्ड भी प्रकाशित करने होंगे और व्हिसलब्लोअर सुरक्षा लागू करनी होगी।

AI वकालत समूहों ने इस प्रस्ताव की सराहना की है। अमेरिकन्स फॉर रिस्पॉन्सिबल इनोवेशन के कार्यकारी निदेशक एरिक गैस्टफ्रेंड ने कहा, "Anthropic का फ्रेमवर्क पारदर्शिता की कुछ बुनियादी आवश्यकताओं को आगे बढ़ाता है, जैसे जोखिमों को कम करने की योजनाएँ जारी करना और डेवलपर्स को उन योजनाओं के प्रति जवाबदेह ठहराना।" इस फ्रेमवर्क का हल्का और लचीला दृष्टिकोण AI तकनीक की तेजी से बदलती प्रकृति को स्वीकार करता है, साथ ही जिम्मेदार विकास के लिए बुनियादी अपेक्षाएँ भी स्थापित करता है।

Source: Solutionsreview

Latest News