सुरक्षा विशेषज्ञों के अनुसार, AI-संचालित साइबर सुरक्षा के लिए यह एक ऐतिहासिक क्षण है। Google ने 15 जुलाई, 2025 को घोषणा की कि उसके 'Big Sleep' AI एजेंट ने SQLite की एक गंभीर सुरक्षा खामी के शोषण को सफलतापूर्वक रोक दिया, जिसकी जानकारी केवल खतरे पैदा करने वाले तत्वों को थी।
इस खामी को CVE-2025-6965 के रूप में ट्रैक किया गया है, जिसका CVSS स्कोर 7.2 है। यह एक मेमोरी करप्शन दोष है, जो SQLite के सभी 3.50.2 से पहले के वर्जनों को प्रभावित करता है। SQLite प्रोजेक्ट मेंटेनर्स के अनुसार, "अगर कोई हमलावर किसी एप्लिकेशन में मनमाने SQL स्टेटमेंट्स इंजेक्ट कर सके, तो वह एक इंटीजर ओवरफ्लो का कारण बन सकता है, जिससे ऐरे के अंत से बाहर पढ़ने की स्थिति बन सकती है।"
इस मामले को खास बनाता है Google के AI सिस्टम की यह क्षमता कि उसने न केवल इस खामी का पता लगाया, बल्कि उसके आसन्न शोषण की भी भविष्यवाणी की। Google और Alphabet के ग्लोबल अफेयर्स के अध्यक्ष केंट वॉकर ने कहा, "थ्रेट इंटेलिजेंस और Big Sleep के संयोजन से Google ने न केवल यह पता लगाया कि एक खामी का शोषण होने वाला है, बल्कि हम उसे पहले ही रोकने में सफल रहे।"
Big Sleep, Google की AI सुरक्षा क्षमताओं के विकास का प्रतीक है, जिसे Google DeepMind और Google Project Zero के सहयोग से विकसित किया गया है। इस सिस्टम की पहली घोषणा 2024 में Project Naptime के रूप में हुई थी, जो बाद में अपने वर्तमान स्वरूप में विकसित हुआ। नवंबर 2024 में, इसने पहली बार किसी वास्तविक दुनिया की कमजोरी का पता लगाया था, लेकिन यह पहली बार है जब इसने सक्रिय रूप से किसी शोषण प्रयास को रोका है।
इसकी उपयोगिता केवल Google की अपनी सुरक्षा तक सीमित नहीं है। कंपनी अब Big Sleep को व्यापक रूप से इस्तेमाल होने वाले ओपन-सोर्स प्रोजेक्ट्स की सुरक्षा बढ़ाने के लिए तैनात कर रही है, जिससे इंटरनेट पर कमजोरियों की पहचान और समाधान का तरीका बदल सकता है। सुरक्षा शोधकर्ताओं का कहना है कि यह साइबर सुरक्षा रक्षा के क्षेत्र में प्रतिक्रियात्मक से सक्रिय रुख की ओर बदलाव का संकेत है, जहां AI सिस्टम संभावित खतरों की पहचान उनके सामने आने से पहले ही कर सकते हैं।
Google ने अपनी घोषणा में कहा, "ये साइबर सुरक्षा एजेंट गेम-चेंजर हैं, जो सुरक्षा टीमों को जटिल खतरों पर ध्यान केंद्रित करने के लिए मुक्त करते हैं और उनके प्रभाव व पहुंच को कई गुना बढ़ा देते हैं।" कंपनी ने एक श्वेतपत्र भी प्रकाशित किया है, जिसमें बताया गया है कि किस तरह उसके AI एजेंट मानवीय निगरानी के साथ काम करते हुए गोपनीयता की सुरक्षा और संभावित जोखिमों को कम करने के उपाय अपनाते हैं।