साइबर सुरक्षा विशेषज्ञों के अनुसार, कृत्रिम बुद्धिमत्ता (एआई) का महत्वपूर्ण ढांचे में तेजी से एकीकरण एक चिंताजनक सुरक्षा परिदृश्य बना रहा है। यह बात 17 मई, 2025 को प्रकाशित नवीनतम RISKS फोरम डाइजेस्ट में सामने आई है।
वर्ल्ड इकोनॉमिक फोरम की 'ग्लोबल साइबरसिक्योरिटी आउटलुक 2025' रिपोर्ट के अनुसार, 66% संगठन एआई को इस वर्ष की सबसे बड़ी साइबर सुरक्षा चुनौती मानते हैं, लेकिन केवल 37% ने एआई टूल्स की तैनाती से पहले सुरक्षा आकलन के उपाय लागू किए हैं। जागरूकता और कार्रवाई के बीच यह अंतर विभिन्न उद्योगों में गंभीर कमजोरियों का कारण बन रहा है।
यूके के नेशनल साइबर सिक्योरिटी सेंटर (NCSC) के प्रवक्ता ने अपनी नवीनतम रिपोर्ट में चेतावनी दी, "वे संगठन और प्रणालियां जो एआई-सक्षम खतरों के साथ कदम नहीं मिला पातीं, वे सप्लाई चेन में और अधिक कमजोरी के केंद्र बन जाती हैं, क्योंकि उनकी कमजोरियों के उजागर होने और शोषण की संभावना बढ़ जाती है।" NCSC का अनुमान है कि 2027 तक एआई-सक्षम हमलावर कमजोरियों की खोज और शोषण के बीच के समय को और घटा देंगे, जो पहले ही कुछ दिनों तक सिमट गया है।
साइबर सुरक्षा पेशेवर विशेष रूप से बड़े भाषा मॉडल्स (LLMs) के खिलाफ प्रॉम्प्ट इंजेक्शन हमलों को लेकर चिंतित हैं। सुरक्षा शोधकर्ताओं द्वारा उद्धृत हालिया पेनिट्रेशन टेस्ट में एक मोमबत्ती की दुकान के एआई चैटबॉट को प्रॉम्प्ट इंजीनियरिंग के जरिए समझौता किया गया, जिससे सुरक्षा, सुरक्षा और व्यापार संबंधी जोखिम उत्पन्न हुए। इस हमले के जरिए सिस्टम डेटा निकाला गया और चैटबॉट की प्रतिक्रियाओं में हेरफेर किया गया, जिससे स्पष्ट हुआ कि सामान्य दिखने वाले एआई समाधान भी गंभीर सुरक्षा जोखिम बन सकते हैं।
सप्लाई चेन की कमजोरियां एक अन्य प्रमुख चिंता हैं। 54% बड़े संगठनों ने इन्हें साइबर लचीलापन प्राप्त करने में सबसे बड़ी बाधा माना है। सप्लाई चेन की बढ़ती जटिलता और आपूर्तिकर्ताओं की सुरक्षा प्रक्रियाओं में सीमित पारदर्शिता ने ऐसा माहौल बना दिया है, जहां तीसरे पक्ष के घटकों के जरिए एआई प्रणालियों से समझौता किया जा सकता है।
एजेंटिक एआई—ऐसी प्रणालियां जो स्वायत्त रूप से निर्णय ले सकती हैं और जटिल कार्य कर सकती हैं—2025 में खतरे के परिदृश्य को बदलने की संभावना है। सिस्को के स्वामित्व वाली स्प्लंक के आर्टिफिशियल इंटेलिजेंस उपाध्यक्ष हाओ यांग ने बताया, "पहले हम ऐसे एआई असिस्टेंट्स पर ध्यान केंद्रित करते थे, जो उपयोगकर्ताओं के प्रॉम्प्ट्स का जवाब देते थे। अब हम ऐसे एजेंटिक एआई टूल्स देख रहे हैं, जो स्वतंत्र रूप से निर्णय ले सकते हैं और जटिल कार्य कर सकते हैं।"
विशेषज्ञों की सलाह है कि संगठन औपचारिक एआई सुरक्षा नीतियां लागू करें, तैनाती से पहले थ्रेट मॉडलिंग करें, हमले की सतह को व्यवस्थित रूप से कम करें और सुनिश्चित करें कि विक्रेताओं के पास सक्रिय सुरक्षा सुधार कार्यक्रम हों। इसके अलावा, सुरक्षा टीमों के लिए निरंतर प्रशिक्षण आवश्यक है, क्योंकि एआई-संचालित हमले पारंपरिक सुरक्षा उपायों से आगे निकल रहे हैं।
RISKS फोरम में एक सुरक्षा शोधकर्ता ने कहा, "बदलाव केवल एआई-सक्षम हमलों से बचाव का नहीं है—बल्कि यह समझने का है कि हमारे एआई सिस्टम खुद भी अब प्रमुख लक्ष्य बन चुके हैं।"