menu
close

Google DeepMind के CEO ने 2030 तक AGI की भविष्यवाणी की, दिखाए क्रांतिकारी AI सिस्टम्स

21 मई 2025 को एक महत्वपूर्ण मीडिया उपस्थिति में, Google DeepMind के CEO डेमिस हासाबिस ने आर्टिफिशियल जनरल इंटेलिजेंस (AGI) के लिए अपनी दृष्टि साझा की और इसके 2030 के आसपास आने की संभावना जताई। इंटरव्यू के दौरान, हासाबिस ने Google के हालिया AI नवाचारों जैसे Astra, Genie 2 और SIMA का प्रदर्शन किया, जिससे कंपनी की एजेंटिक क्षमताओं वाले उन्नत AI सिस्टम्स की दिशा में प्रगति उजागर हुई। Google ने AGI को सुरक्षित और जिम्मेदारी से विकसित करने की अपनी प्रतिबद्धता दोहराई, साथ ही AI विकास की तेज़ रफ्तार को भी स्वीकार किया।
Google DeepMind के CEO ने 2030 तक AGI की भविष्यवाणी की, दिखाए क्रांतिकारी AI सिस्टम्स

Google DeepMind के CEO डेमिस हासाबिस का मानना है कि आर्टिफिशियल जनरल इंटेलिजेंस (AGI) संभवतः 2030 के ठीक पहले या बाद में आ जाएगी, जैसा कि उन्होंने 21 मई 2025 को एक प्रमुख मीडिया उपस्थिति के दौरान कहा।

इस कार्यक्रम में, जिसमें Google के सह-संस्थापक सर्गेई ब्रिन ने भी अप्रत्याशित रूप से शिरकत की, हासाबिस ने AGI प्राप्त करने की समयसीमा पर चर्चा की—जिसे आमतौर पर ऐसी AI के रूप में समझा जाता है जो अधिकांश मानवीय क्षमताओं के बराबर या उससे आगे हो। जहां ब्रिन ने AGI के 2030 से ठीक पहले आने की भविष्यवाणी की, वहीं हासाबिस ने संकेत दिया कि यह थोड़ा बाद में आ सकती है। हासाबिस ने मजाक में कहा कि ब्रिन तो बस कॉल कर सकते हैं, लेकिन उन्हें (हासाबिस को) वास्तव में इसे डिलीवर करने का तरीका निकालना है।

हासाबिस, जिन्हें AlphaFold पर उनके कार्य के लिए 2024 का नोबेल पुरस्कार (रसायन विज्ञान) मिला, ने पिछले कुछ वर्षों में AI में हुई जबरदस्त प्रगति को स्वीकार किया। उन्होंने कहा, "हम पिछले 20 वर्षों से इस पर काम कर रहे हैं और AGI को लेकर हमारा नजरिया हमेशा यही रहा है कि यह एक ऐसा सिस्टम हो जो इंसानों की सभी संज्ञानात्मक क्षमताओं का प्रदर्शन कर सके। मुझे लगता है हम इसके और करीब आ रहे हैं, लेकिन अभी भी शायद कुछ साल दूर हैं।"

DeepMind के CEO ने भविष्यवाणी की कि AGI तक पहुंचने के लिए उद्योग को अभी कुछ और बड़े ब्रेकथ्रू की आवश्यकता होगी। उन्होंने बताया कि हाल ही में Google, OpenAI और अन्य द्वारा पेश की गई रीजनिंग अप्रोचेज़ ऐसे ही किसी ब्रेकथ्रू का हिस्सा हो सकती हैं। ये रीजनिंग मॉडल्स तुरंत प्रतिक्रिया नहीं देते, बल्कि उत्तर देने से पहले अधिक कंप्यूटिंग करते हैं—"जैसे हम में से अधिकतर, बोलने से पहले सोचने का फायदा मिलता है," जैसा कि ब्रिन ने कहा।

इंटरव्यू के दौरान, हासाबिस ने Project Astra का प्रदर्शन किया, जो Google उत्पादों के लिए क्रांतिकारी क्षमताओं का पता लगाने वाला एक रिसर्च प्रोटोटाइप है, जो एक यूनिवर्सल AI असिस्टेंट के निर्माण की दिशा में है। Astra की कुछ क्षमताएं पिछले वर्ष Gemini Live में पहले ही शामिल की जा चुकी हैं, जैसे स्क्रीन शेयरिंग और वीडियो समझना।

हासाबिस ने Genie 2 का भी प्रदर्शन किया, जो एक AI मॉडल है जो केवल एक स्थिर छवि से 3D दुनिया बना सकता है, जिसे मानव खिलाड़ी या AI एजेंट एक्सप्लोर कर सकते हैं। एक उदाहरण में, Genie 2 ने कैलिफोर्निया के एक झरने की फोटो को एक इंटरैक्टिव 3D वातावरण में बदल दिया, जिसे वीडियो गेम की तरह नेविगेट किया जा सकता था।

एक और उल्लेखनीय सिस्टम SIMA (Scalable Instructable Multiworld Agent) था, जो प्राकृतिक भाषा में दिए गए निर्देशों का पालन करते हुए विभिन्न वीडियो गेम सेटिंग्स में कार्य कर सकता है। जैसे-जैसे Google के मल्टीमॉडल मॉडल्स अधिक सक्षम होते जा रहे हैं और दुनिया व उसकी भौतिकी को बेहतर समझ रहे हैं, वे रोबोटिक्स में अविश्वसनीय नई प्रगति संभव बना रहे हैं।

हासाबिस ने जोर दिया कि Google बुनियादी अनुसंधान पर अपना ध्यान केंद्रित किए हुए है और AGI के लिए आवश्यक अगले बड़े ब्रेकथ्रू का आविष्कार करने के लिए काम कर रहा है। कंपनी अपने Gemini 2.5 Pro मॉडल को एक "वर्ल्ड मॉडल" में विस्तारित कर रही है, जो दुनिया के पहलुओं को समझकर और उनका अनुकरण कर योजनाएं बना सकता है और नई अनुभवों की कल्पना कर सकता है, ठीक वैसे ही जैसे मानव मस्तिष्क करता है।

जब नैतिक विचारों के बारे में पूछा गया, तो हासाबिस ने कहा, "हमारे सिद्धांतों में कुछ भी नहीं बदला है। हमारे सिद्धांतों की मूल बात हमेशा यही रही है: हमें लाभों का विचारपूर्वक मूल्यांकन करना है, और वे नुकसान के जोखिम से काफी अधिक होने चाहिए। इसलिए, जो कुछ भी हम करना चाहें, उसके लिए यह एक उच्च मानक है। बेशक, हमें अंतरराष्ट्रीय कानून और मानवाधिकारों का सम्मान करना है—यह सब अब भी हमारे सिद्धांतों में शामिल है।"

Source:

Latest News