2023 ஆம் ஆண்டு கோடையில், OpenAI ஆராய்ச்சியாளர்களுடன் நடந்த ஒரு கூட்டத்தில், அப்போது முதன்மை விஞ்ஞானியாக இருந்த இல்யா சுட்ஸ்கெவர் ஒரு அதிர்ச்சிகரமான அறிவிப்பைச் செய்தார்: "நாம் AGI-யை வெளியிடும் முன் நிச்சயமாக ஒரு பங்கர் கட்டப்போகிறோம்." இந்த தகவல், சமீபத்தில் வெளியான கரன் ஹாவோவின் 'Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI' என்ற புத்தகத்தில் முதலில் வெளிவந்தது, செயற்கை நுண்ணறிவின் மிக முக்கியமான நபர்களில் ஒருவரின் உலக முடிவுக்கான கவலைகளை வெளிப்படுத்துகிறது.
OpenAI-யை இணை நிறுவியவரும், 2024 மே மாதம் வரை அதன் முதன்மை விஞ்ஞானியாக இருந்தவருமான சுட்ஸ்கெவர், மனித மட்ட நுண்ணறிவு திறன்கள் கொண்ட செயற்கை பொது நுண்ணறிவு உருவாக்கப்பட்டால், ஆராய்ச்சியாளர்கள் பாதுகாப்பு தேவைப்படும் என நம்பினார். ஹாவோவின் புத்தகத்தில் மேற்கோள் காட்டப்பட்டுள்ள ஆதாரங்களின்படி, சுட்ஸ்கெவரின் பங்கர் யோசனை இரட்டை நோக்கத்துடன் இருந்தது: AGI வெளியீட்டுக்குப் பிறகு ஏற்படும் பன்னாட்டு குழப்பங்களில் இருந்து முக்கிய விஞ்ஞானிகளை பாதுகாப்பதும், அதே நேரத்தில் சூப்பர் நுண்ணறிவு அமைப்புகள் எவ்வாறு உருவாகும் என்பதை பாதிப்பதற்கான தளமாகவும் அமைய வேண்டும் என்பதும்.
"இல்யா உட்பட ஒரு குழு நபர்கள் AGI உருவாக்கம் ஒரு 'ராப்சர்' (மாபெரும் உலக மாற்றம்) ஏற்படுத்தும் என்று நம்புகிறார்கள்," என்று ஒரு ஆராய்ச்சியாளர் ஹாவோவிடம் கூறினார். இது உருவகமாக அல்ல, உண்மையில் உலகம் மாற்றப்படும் நிகழ்வாகவே கருதப்பட்டது. பங்கரில் செல்லும் விஞ்ஞானிகள் விருப்பப்படி தேர்வு செய்யலாம் என்று சுட்ஸ்கெவர் உறுதியளித்தாலும், இப்படியான தீவிரமான முன்னெச்சரிக்கைகள் பலரையும் பதற வைத்தன.
OpenAI-யில் நிறுவனம் எடுக்கும் திசை குறித்து அதிகரித்துவரும் பதற்றங்கள் நடுவே இந்த பங்கர் யோசனை உருவானது. OpenAI வணிக விரிவாக்கத்திற்கு முன்னுரிமை அளித்து, பாதுகாப்பு நடைமுறைகளை புறக்கணிக்கிறது என்ற கவலை சுட்ஸ்கெவரும் சிலரும்கொண்டிருந்தனர். இதுவே 2023 நவம்பரில் CEO சாம் ஆல்ட்மனை நீக்க முயற்சிக்க காரணமானது. ஆல்ட்மன் மீண்டும் பதவிக்கு வந்த பிறகு, சுட்ஸ்கெவர் 2024 மே மாதத்தில் OpenAI-யை விட்டு, டேனியல் கிரோஸ் மற்றும் டேனியல் லெவியுடன் Safe Superintelligence (SSI)-ஐ நிறுவினார்.
SSI, 2025 ஏப்ரல் நிலவரப்படி $3 பில்லியன் முதலீடு பெற்று, $32 பில்லியன் மதிப்பீட்டை எட்டியுள்ளது. இது செயற்கை நுண்ணறிவு பாதுகாப்பில் சுட்ஸ்கெவரின் தொடர்ந்த அர்ப்பணிப்பை காட்டுகிறது. OpenAI போல பல திசைகளில் செயல்படாமல், SSI முழுமையாக பாதுகாப்பான சூப்பர் நுண்ணறிவு உருவாக்கத்திலேயே கவனம் செலுத்துகிறது. "எங்கள் முதல் தயாரிப்பு பாதுகாப்பான சூப்பர் நுண்ணறிவாக இருக்கும்; அதுவரை வேறு எதிலும் ஈடுபடமாட்டோம்," என்று சுட்ஸ்கெவர் தெரிவித்துள்ளார்.
சுட்ஸ்கெவரின் எச்சரிக்கையுள்ள அணுகுமுறை மற்றும் ஆல்ட்மனின் நம்பிக்கையுள்ள பார்வை ஆகியவை செயற்கை நுண்ணறிவு சமூகத்தில் உள்ள சிந்தனைக் பிளவை வெளிப்படுத்துகின்றன. சுட்ஸ்கெவர் சாத்தியமான பேரழிவுக்காக தயாராகும் போது, AGI-யின் சமூக தாக்கம் மிகக் குறைவாக இருக்கும் என்று ஆல்ட்மன் கருதுகிறார். சூப்பர் நுண்ணறிவை நோக்கி ஓட்டம் வேகமாகும் நிலையில், இந்த முரண்பட்ட பார்வைகள், மனித சமூகம் இதுவரை சந்தித்திராத மிக முக்கியமான தொழில்நுட்ப முன்னேற்றத்தை எவ்வாறு அணுக வேண்டும் என்பதை வடிவமைத்து வருகிறது.