எலான் மஸ்க்கின் செயற்கை நுண்ணறிவு நிறுவனம் xAI, அதன் Grok சாட்போட்டில் ஏற்பட்ட முக்கியமான பாதுகாப்பு மீறலை தொடர்ந்து, எதிர்காலத்தில் இதுபோன்ற சம்பவங்கள் மீண்டும் நடக்காமல் தடுக்கும் வகையில் புதிய வெளிப்படைத்தன்மை மற்றும் கண்காணிப்பு நடைமுறைகளை அறிமுகப்படுத்தியுள்ளது.
மே 14 அன்று, பல X பயனர்கள், தொடர்பில்லாத கேள்விகளுக்கும் Grok சாட்போட் தென்னாபிரிக்காவில் 'வெள்ளை இனப்படுகொலை' குறித்த கருத்துகளை பதிலளிப்பதாக புகார் தெரிவித்தனர். பேஸ்பால் புள்ளிவிவரங்கள், கார்ட்டூன்கள், இயற்கை புகைப்படங்கள் போன்ற சாதாரண தலைப்புகளில் கூட, இந்த சர்ச்சைக்குரிய கருத்துகள் உரையாடலில் இடம் பெற்றன.
வியாழக்கிழமை மாலை வெளியிட்ட அறிக்கையில், xAI நிறுவனம், "மே 14 அன்று காலை 3:15 மணியளவில், X-இல் உள்ள Grok பதிலளிப்பு பாட்டின் ப்ராம்ப்டில் அனுமதியில்லாத மாற்றம் செய்யப்பட்டதாக" உறுதிப்படுத்தியது. இந்த மாற்றம், "ஒரு அரசியல் தலைப்பில் குறிப்பிட்ட பதிலை வழங்க Grok-ஐ வழிநடத்தியது" என்றும், இது xAI-யின் உள்ளக கொள்கைகள் மற்றும் முக்கிய மதிப்பீடுகளை மீறியது என்றும் நிறுவனம் தெரிவித்தது.
இது, சமீப மாதங்களில் xAI-க்கு ஏற்பட்ட இரண்டாவது இத்தகைய சம்பவம். கடந்த பிப்ரவரியில், டொனால்ட் டிரம்ப் மற்றும் எலான் மஸ்க்கை விமர்சிக்கும் கருத்துகளை Grok தற்காலிகமாக தணிக்கை செய்தது, அதற்கும் ஒரு ஊழியர் காரணம் என தெரிவிக்கப்பட்டது.
இந்த பாதிப்புகளை சமாளிக்க, xAI மூன்று முக்கிய பாதுகாப்பு நடவடிக்கைகளை அறிவித்துள்ளது: Grok-இன் சிஸ்டம் ப்ராம்ப்ட்களை GitHub-ல் பொது மாற்றப்பட்ட பதிவுடன் வெளியிடுவது, உரிய பரிசீலனை இல்லாமல் அனுமதியில்லாத மாற்றங்களை தடுக்கும் கூடுதல் சோதனைகள் மேற்கொள்வது, மற்றும் தானாக கண்டறியப்படாத சம்பவங்களுக்கு பதிலளிக்க 24/7 கண்காணிப்பு குழுவை அமைப்பது.
இந்த சம்பவம், செயற்கை நுண்ணறிவு பாதுகாப்பு மற்றும் உள்ளடக்க கட்டுப்பாட்டில் தொடரும் சவால்களை வெளிப்படுத்துகிறது. சமீபத்திய SaferAI ஆய்வில், "மிகவும் பலவீனமான" அபாய மேலாண்மை நடைமுறைகளால் xAI பாதுகாப்பு தரத்தில் அதன் போட்டியாளர்களை விட பின்தங்கியுள்ளது என தெரிவிக்கப்பட்டது. கட்டுப்பாடற்ற AI-யின் அபாயங்களை எலான் மஸ்க் அடிக்கடி எச்சரித்தாலும், xAI நிறுவனம் தானாகவே விதித்திருந்த மே மாத AI பாதுகாப்பு கட்டமைப்பை வெளியிடும் கடைசி தேதியை பூர்த்தி செய்ய தவறியுள்ளதாக விமர்சகர்கள் குறிப்பிடுகின்றனர்.