एलन मस्क की आर्टिफिशियल इंटेलिजेंस कंपनी xAI ने अपने Grok चैटबॉट में हुई एक बड़ी सुरक्षा सेंध के बाद पारदर्शिता और निगरानी के नए प्रोटोकॉल लागू किए हैं, ताकि भविष्य में ऐसी घटनाओं को रोका जा सके।
14 मई को, कई X उपयोगकर्ताओं ने रिपोर्ट किया कि Grok असंबंधित सवालों के जवाब में 'दक्षिण अफ्रीका में कथित श्वेत नरसंहार' पर बयान दे रहा था। यह एआई असिस्टेंट बेसबॉल के आंकड़ों, कार्टून या सुंदर दृश्यों जैसी सामान्य चर्चाओं में भी ये विवादास्पद दावे जोड़ रहा था।
गुरुवार शाम को जारी एक बयान में xAI ने पुष्टि की कि "14 मई को लगभग 3:15 AM PST पर X पर Grok रिस्पॉन्स बॉट के प्रॉम्प्ट में अनधिकृत बदलाव किया गया था।" कंपनी ने कहा कि इस बदलाव ने Grok को एक राजनीतिक विषय पर विशेष प्रतिक्रिया देने के लिए निर्देशित किया, जो xAI की आंतरिक नीतियों और मूल्यों का उल्लंघन था।
पिछले कुछ महीनों में xAI के लिए यह दूसरी ऐसी घटना है। फरवरी में, Grok ने डोनाल्ड ट्रंप और एलन मस्क के बारे में अप्रसन्न टिप्पणियों को कुछ समय के लिए सेंसर कर दिया था, जिसका कारण भी एक भटका हुआ कर्मचारी बताया गया था।
इन कमजोरियों को दूर करने के लिए xAI ने तीन प्रमुख सुरक्षा उपायों की घोषणा की है: Grok के सिस्टम प्रॉम्प्ट्स को GitHub पर सार्वजनिक चेंजलॉग के साथ प्रकाशित करना, बिना उचित समीक्षा के अनधिकृत बदलावों को रोकने के लिए अतिरिक्त जांच लागू करना, और ऐसी घटनाओं के लिए 24/7 निगरानी टीम बनाना जिन्हें स्वचालित सिस्टम पकड़ नहीं पाते।
यह घटना एआई सुरक्षा और कंटेंट मॉडरेशन में जारी चुनौतियों को उजागर करती है। SaferAI के एक हालिया अध्ययन में पाया गया कि सुरक्षा के मामले में xAI अपने समकक्षों की तुलना में काफी पीछे है, क्योंकि इसकी जोखिम प्रबंधन प्रक्रियाएं "बहुत कमजोर" हैं। मस्क द्वारा अनियंत्रित एआई के खतरों को लेकर बार-बार दी गई चेतावनियों के बावजूद, आलोचकों का कहना है कि xAI अपनी स्वयं निर्धारित मई की समयसीमा तक अंतिम एआई सुरक्षा ढांचा प्रकाशित करने में विफल रहा।