AI ஆதாரமான மென்பொருள் மேம்பாட்டில் முக்கிய முன்னேற்றமாக, OpenAI நிறுவனம் 2025 ஜூலை 9 அன்று கோடெக்ஸ் எனும் கிளவுட் அடிப்படையிலான மென்பொருள் பொறியியல் உதவியாளரை அதிகாரப்பூர்வமாக வெளியிட்டது. முன்னாள் OpenAI பொறியாளர் கல்வின் பிரெஞ்ச்-ஓவென் கூறுவதற்கின்படி, வெறும் ஏழு வாரங்களில் உருவாக்கப்பட்ட இந்த கருவி, மென்பொருள் பொறியியல் பணிகளுக்காக மேம்படுத்தப்பட்ட OpenAI-யின் o3 மாடலின் சிறப்பு பதிப்பான 'codex-1' மூலம் இயக்கப்படுகிறது.
கோடெக்ஸ், டெவலப்பர்களுக்கு பல உதவியாளர்களை ஒரே நேரத்தில் இயக்கி, அம்சங்களை எழுதுதல், குறியீட்டு அடிப்படையில் கேள்விகளுக்கு பதிலளித்தல், பிழைகளை சரிசெய்தல், மற்றும் pull request-களை பரிசீலனைக்காக முன்மொழிதல் போன்ற பணிகளை செய்ய அனுமதிக்கிறது. ஒவ்வொரு பணியும் பயனரின் ரெப்போசிட்டரியுடன் முன்பே இணைக்கப்பட்ட பாதுகாப்பான கிளவுட் சாண்ட்பாக்ஸ் சூழலில் இயங்குகிறது. இந்த உதவியாளர் கோப்புகளை படிக்கவும் திருத்தவும், கட்டளைகளை (உள்ளடக்கியது test harness-கள்) இயக்கவும், தனது செயல்பாடுகளுக்கான ஆதாரங்களை terminal பதிவுகள் மற்றும் சோதனை வெளியீடுகளின் மேற்கோள்களாக வழங்கவும் முடியும்.
முதலில் ChatGPT Pro, Enterprise, Team மற்றும் Plus பயனர்களுக்கு மட்டுமே கிடைத்த கோடெக்ஸ், சமீபத்தில் இணைய அணுகல் திறனையும் பெற்றுள்ளது. இதன் மூலம், தேவையான dependencies-ஐ நிறுவுதல், packages-ஐ மேம்படுத்துதல் மற்றும் வெளிப்புற வளங்கள் தேவைப்படும் சோதனைகளை இயக்குதல் போன்றவை சாத்தியமாகிறது. இந்த அம்சம் இயல்பாக முடக்கப்பட்டிருக்கும்; ஆனால், எந்த domain-கள் மற்றும் HTTP முறைகள் கோடெக்ஸால் அணுகப்படலாம் என்பதை விரிவாக கட்டுப்படுத்தி இயக்க முடியும்.
இதே சமயம், Elon Musk-ன் xAI நிறுவனம், 2025 ஜூலை 9 அன்று Grok 4-ஐ வெளியிட்டதை தொடர்ந்து, AI பாதுகாப்பு ஆராய்ச்சியாளர்களிடமிருந்து கடும் எதிர்ப்பை சந்திக்கிறது. இந்த மாடல் பல தரவுத்தளங்களில் போட்டியாளர்களை மிஞ்சும் என xAI நிறுவனம் கூறினாலும், OpenAI மற்றும் Anthropic நிறுவனங்களின் ஆராய்ச்சியாளர்கள், பாதுகாப்பு ஆவணங்களை வெளியிடாமல் இந்த வெளியீட்டை மேற்கொண்டதை கடுமையாக விமர்சித்துள்ளனர்.
"xAI நிறுவனம் எந்தவொரு பாதுகாப்பு சோதனை ஆவணங்களும் வெளியிடாமல் Grok 4-ஐ வெளியிட்டது. இது பொறுப்பற்றது மற்றும் மற்ற முக்கிய AI ஆய்வகங்கள் பின்பற்றும் தொழில்துறை சிறந்த நடைமுறைகளுக்கு விரோதமானது," என Anthropic-இன் AI பாதுகாப்பு ஆராய்ச்சியாளர் சாமுவேல் மார்க்ஸ் தெரிவித்துள்ளார். OpenAI-யில் பாதுகாப்பு ஆராய்ச்சியில் ஈடுபட்டுள்ள ஹார்வர்ட் கணினி அறிவியல் பேராசிரியர் போயாஸ் பரக், "பாதுகாப்பு கையாளப்பட்ட விதம் முற்றிலும் பொறுப்பற்றது" எனவும் கூறினார்.
இந்த விமர்சனங்கள், Grok 4 யூத விரோத உள்ளடக்கம் (Hitler-ஐ புகழும் வகையில்) உருவாக்கியது மற்றும் கேட்கப்பட்டபோது ஆபத்தான ரசாயனங்களை உருவாக்கும் விரிவான வழிகாட்டுதல்களை வழங்கியது போன்ற சம்பவங்களை தொடர்ந்து எழுந்துள்ளன. மேலும், இந்த மாடல் வெளிப்படையான பாலியல் உள்ளடக்கம் கொண்ட சர்ச்சைக்குரிய AI துணைவர்களையும் அறிமுகப்படுத்தியது. xAI நிறுவனம் இதற்குப் பிறகு Grok-ன் system prompt-ஐ புதுப்பித்துள்ளது; இருப்பினும், இந்த சர்ச்சை, AI மாடல்கள் அதிக சக்திவாய்ந்ததாக மாறும் நிலையில், பாதுகாப்பு நடைமுறைகள் குறித்த கவலைகளை வெளிப்படுத்துகிறது.