menu
close

OpenAI முன்னாள் விஞ்ஞானி AGI பிறகு உலகத்திற்கு பங்கர் கட்ட திட்டமிட்டார்

OpenAI முன்னாள் முதன்மை விஞ்ஞானி இல்யா சுட்ஸ்கெவர், செயற்கை பொது நுண்ணறிவு (AGI) உருவாக்கப்பட்ட பிறகு ஆராய்ச்சியாளர்களை சாத்தியமான அபாயங்களிலிருந்து பாதுகாக்க ஒரு 'டூம்ஸ்டே' பங்கர் கட்ட வேண்டும் என்று முன்வைத்தார். கரன் ஹாவோவின் புதிய புத்தகம் 'Empire of AI' இல் வெளிப்படுத்தப்பட்ட இந்த தகவல், AGI-யின் உயிர்நிலை அபாயங்களைப் பற்றிய சுட்ஸ்கெவரின் ஆழமான கவலைகளை வெளிப்படுத்துகிறது. இதுவே அவரை OpenAI-யை விட்டு விட்டு Safe Superintelligence Inc-ஐ நிறுவ தூண்டியது.
OpenAI முன்னாள் விஞ்ஞானி AGI பிறகு உலகத்திற்கு பங்கர் கட்ட திட்டமிட்டார்

2023 ஆம் ஆண்டு கோடையில், OpenAI ஆராய்ச்சியாளர்களுடன் நடந்த ஒரு கூட்டத்தில், அப்போது முதன்மை விஞ்ஞானியாக இருந்த இல்யா சுட்ஸ்கெவர் ஒரு அதிர்ச்சிகரமான அறிவிப்பைச் செய்தார்: "நாம் AGI-யை வெளியிடும் முன் நிச்சயமாக ஒரு பங்கர் கட்டப்போகிறோம்." இந்த தகவல், சமீபத்தில் வெளியான கரன் ஹாவோவின் 'Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI' என்ற புத்தகத்தில் முதலில் வெளிவந்தது, செயற்கை நுண்ணறிவின் மிக முக்கியமான நபர்களில் ஒருவரின் உலக முடிவுக்கான கவலைகளை வெளிப்படுத்துகிறது.

OpenAI-யை இணை நிறுவியவரும், 2024 மே மாதம் வரை அதன் முதன்மை விஞ்ஞானியாக இருந்தவருமான சுட்ஸ்கெவர், மனித மட்ட நுண்ணறிவு திறன்கள் கொண்ட செயற்கை பொது நுண்ணறிவு உருவாக்கப்பட்டால், ஆராய்ச்சியாளர்கள் பாதுகாப்பு தேவைப்படும் என நம்பினார். ஹாவோவின் புத்தகத்தில் மேற்கோள் காட்டப்பட்டுள்ள ஆதாரங்களின்படி, சுட்ஸ்கெவரின் பங்கர் யோசனை இரட்டை நோக்கத்துடன் இருந்தது: AGI வெளியீட்டுக்குப் பிறகு ஏற்படும் பன்னாட்டு குழப்பங்களில் இருந்து முக்கிய விஞ்ஞானிகளை பாதுகாப்பதும், அதே நேரத்தில் சூப்பர் நுண்ணறிவு அமைப்புகள் எவ்வாறு உருவாகும் என்பதை பாதிப்பதற்கான தளமாகவும் அமைய வேண்டும் என்பதும்.

"இல்யா உட்பட ஒரு குழு நபர்கள் AGI உருவாக்கம் ஒரு 'ராப்சர்' (மாபெரும் உலக மாற்றம்) ஏற்படுத்தும் என்று நம்புகிறார்கள்," என்று ஒரு ஆராய்ச்சியாளர் ஹாவோவிடம் கூறினார். இது உருவகமாக அல்ல, உண்மையில் உலகம் மாற்றப்படும் நிகழ்வாகவே கருதப்பட்டது. பங்கரில் செல்லும் விஞ்ஞானிகள் விருப்பப்படி தேர்வு செய்யலாம் என்று சுட்ஸ்கெவர் உறுதியளித்தாலும், இப்படியான தீவிரமான முன்னெச்சரிக்கைகள் பலரையும் பதற வைத்தன.

OpenAI-யில் நிறுவனம் எடுக்கும் திசை குறித்து அதிகரித்துவரும் பதற்றங்கள் நடுவே இந்த பங்கர் யோசனை உருவானது. OpenAI வணிக விரிவாக்கத்திற்கு முன்னுரிமை அளித்து, பாதுகாப்பு நடைமுறைகளை புறக்கணிக்கிறது என்ற கவலை சுட்ஸ்கெவரும் சிலரும்கொண்டிருந்தனர். இதுவே 2023 நவம்பரில் CEO சாம் ஆல்ட்மனை நீக்க முயற்சிக்க காரணமானது. ஆல்ட்மன் மீண்டும் பதவிக்கு வந்த பிறகு, சுட்ஸ்கெவர் 2024 மே மாதத்தில் OpenAI-யை விட்டு, டேனியல் கிரோஸ் மற்றும் டேனியல் லெவியுடன் Safe Superintelligence (SSI)-ஐ நிறுவினார்.

SSI, 2025 ஏப்ரல் நிலவரப்படி $3 பில்லியன் முதலீடு பெற்று, $32 பில்லியன் மதிப்பீட்டை எட்டியுள்ளது. இது செயற்கை நுண்ணறிவு பாதுகாப்பில் சுட்ஸ்கெவரின் தொடர்ந்த அர்ப்பணிப்பை காட்டுகிறது. OpenAI போல பல திசைகளில் செயல்படாமல், SSI முழுமையாக பாதுகாப்பான சூப்பர் நுண்ணறிவு உருவாக்கத்திலேயே கவனம் செலுத்துகிறது. "எங்கள் முதல் தயாரிப்பு பாதுகாப்பான சூப்பர் நுண்ணறிவாக இருக்கும்; அதுவரை வேறு எதிலும் ஈடுபடமாட்டோம்," என்று சுட்ஸ்கெவர் தெரிவித்துள்ளார்.

சுட்ஸ்கெவரின் எச்சரிக்கையுள்ள அணுகுமுறை மற்றும் ஆல்ட்மனின் நம்பிக்கையுள்ள பார்வை ஆகியவை செயற்கை நுண்ணறிவு சமூகத்தில் உள்ள சிந்தனைக் பிளவை வெளிப்படுத்துகின்றன. சுட்ஸ்கெவர் சாத்தியமான பேரழிவுக்காக தயாராகும் போது, AGI-யின் சமூக தாக்கம் மிகக் குறைவாக இருக்கும் என்று ஆல்ட்மன் கருதுகிறார். சூப்பர் நுண்ணறிவை நோக்கி ஓட்டம் வேகமாகும் நிலையில், இந்த முரண்பட்ட பார்வைகள், மனித சமூகம் இதுவரை சந்தித்திராத மிக முக்கியமான தொழில்நுட்ப முன்னேற்றத்தை எவ்வாறு அணுக வேண்டும் என்பதை வடிவமைத்து வருகிறது.

Source: Naturalnews.com

Latest News