गर्मी 2023 में, OpenAI के शोधकर्ताओं के साथ एक बैठक के दौरान, उस समय के मुख्य वैज्ञानिक इल्या सुत्सकेवर ने चौंकाने वाला ऐलान किया: "हम AGI जारी करने से पहले निश्चित रूप से एक बंकर बनाएंगे।" यह खुलासा सबसे पहले कैरन हाओ की हाल ही में प्रकाशित किताब "एम्पायर ऑफ AI: ड्रीम्स एंड नाइटमेयर्स इन सैम ऑल्टमैन'स OpenAI" में सामने आया, जो AI के सबसे प्रभावशाली हस्तियों में से एक की प्रलयकारी चिंताओं की झलक देता है।
सुत्सकेवर, जिन्होंने OpenAI की सह-स्थापना की थी और मई 2024 तक इसके मुख्य वैज्ञानिक रहे, मानते थे कि जैसे ही शोधकर्ता मानव-स्तर की संज्ञानात्मक क्षमताओं वाले आर्टिफिशियल जनरल इंटेलिजेंस (AGI) हासिल कर लेंगे, उन्हें सुरक्षा की आवश्यकता होगी। हाओ की किताब में उद्धृत सूत्रों के अनुसार, सुत्सकेवर के बंकर प्रस्ताव का दोहरा उद्देश्य था: AGI के जारी होने के बाद उत्पन्न होने वाली भू-राजनीतिक अराजकता से प्रमुख वैज्ञानिकों की रक्षा करना और संभवतः सुपरइंटेलिजेंट सिस्टम्स के विकास को प्रभावित करने के लिए एक मंच के रूप में काम करना।
"एक समूह है—इल्या उनमें से एक हैं—जो मानते हैं कि AGI का निर्माण एक रैप्चर लेकर आएगा," एक शोधकर्ता ने हाओ को बताया, जो इसे रूपक के तौर पर नहीं, बल्कि एक वास्तविक विश्व-परिवर्तनकारी घटना के रूप में देख रहे थे। रिपोर्ट के अनुसार, सुत्सकेवर ने अपने सहयोगियों को आश्वस्त किया कि बंकर में प्रवेश करना "वैकल्पिक" होगा, लेकिन इस तरह की चरम तैयारियों के प्रति उनका सहज रवैया संगठन के भीतर कई लोगों को चिंतित कर गया।
यह बंकर प्रस्ताव उस समय सामने आया जब OpenAI के भीतर कंपनी की दिशा को लेकर तनाव बढ़ रहा था। सुत्सकेवर और अन्य को चिंता थी कि संगठन सुरक्षा प्रोटोकॉल की तुलना में व्यावसायिक विस्तार को अधिक प्राथमिकता दे रहा है—यही चिंताएं नवंबर 2023 में सीईओ सैम ऑल्टमैन को हटाने के असफल प्रयास का कारण बनीं। ऑल्टमैन की पुनः नियुक्ति के बाद, सुत्सकेवर ने मई 2024 में OpenAI छोड़ दिया और डैनियल ग्रॉस व डैनियल लेवी के साथ Safe Superintelligence (SSI) की स्थापना की।
SSI, जिसने अप्रैल 2025 तक $3 बिलियन जुटाए और $32 बिलियन का मूल्यांकन हासिल किया, सुत्सकेवर की AI सुरक्षा के प्रति निरंतर प्रतिबद्धता को दर्शाता है। OpenAI के विविध दृष्टिकोण के विपरीत, SSI विशेष रूप से सुरक्षित सुपरइंटेलिजेंस के विकास पर केंद्रित है। सुत्सकेवर ने कहा, "हमारा पहला उत्पाद सुरक्षित सुपरइंटेलिजेंस होगा, और तब तक हम कुछ और नहीं करेंगे।"
सुत्सकेवर के सतर्क दृष्टिकोण और ऑल्टमैन के अधिक आशावादी नजरिए के बीच का अंतर AI समुदाय के भीतर वैचारिक विभाजन को उजागर करता है। जहां सुत्सकेवर संभावित आपदा के लिए तैयारी कर रहे थे, वहीं ऑल्टमैन ने सुझाव दिया है कि AGI "आश्चर्यजनक रूप से कम सामाजिक प्रभाव" के साथ आएगा। जैसे-जैसे सुपरइंटेलिजेंस की दौड़ तेज हो रही है, ये परस्पर विरोधी दृष्टिकोण यह तय करने में महत्वपूर्ण भूमिका निभा रहे हैं कि मानवता अपने सबसे महत्वपूर्ण तकनीकी विकास का सामना कैसे करेगी।