OpenAI ने "AI के दुरुपयोग को विफल करना: जून 2025" नामक एक व्यापक रिपोर्ट जारी की है, जिसमें बताया गया है कि कंपनी ने 2025 के शुरुआती महीनों में अपने AI सिस्टम्स का दुरुपयोग करने वाले 10 दुर्भावनापूर्ण अभियानों की पहचान कर उन्हें निष्क्रिय किया।
रिपोर्ट में विस्तार से बताया गया है कि छह देशों—चीन, रूस, उत्तर कोरिया, ईरान, कंबोडिया और फिलीपींस—के राज्य-प्रायोजित समूह ChatGPT और अन्य AI टूल्स का उपयोग रोजगार घोटालों, प्रभाव संचालन और स्पैम अभियानों के लिए कर रहे थे। इनमें से चार अभियान चीन से शुरू हुए, जिनका फोकस सोशल इंजीनियरिंग, गुप्त प्रभाव संचालन और साइबर खतरों पर था।
"Sneer Review" नामक एक अभियान में चीनी समूहों ने सोशल प्लेटफॉर्म्स पर ताइवानी बोर्ड गेम के खिलाफ आलोचनात्मक टिप्पणियों की बाढ़ ला दी, जिसमें चीनी कम्युनिस्ट पार्टी के विरुद्ध प्रतिरोध के विषय शामिल थे। एक अन्य अभियान "Helgoland Bite" में रूसी समूहों ने जर्मन भाषा में ऐसी सामग्री तैयार की, जो अमेरिका और NATO की आलोचना करती थी और साथ ही जर्मनी के 2025 चुनाव को प्रभावित करने का प्रयास करती थी। उत्तर कोरियाई समूहों को AI का उपयोग कर रिमोट टेक्नोलॉजी नौकरियों के लिए फर्जी रिज्यूमे बड़े पैमाने पर तैयार करते हुए देखा गया, ताकि ऑनबोर्डिंग के दौरान जारी किए गए कॉर्पोरेट डिवाइसेज पर नियंत्रण पाया जा सके।
OpenAI की सुरक्षा टीमों ने अपनी जांच में AI को बलगुणक (force multiplier) के रूप में इस्तेमाल किया, जिससे वे सोशल इंजीनियरिंग, साइबर जासूसी और भ्रामक रोजगार योजनाओं जैसी दुरुपयोग गतिविधियों का पता लगाने, उन्हें विफल करने और उजागर करने में सक्षम रहे। कंपनी की डिटेक्शन सिस्टम्स ने सभी अभियानों में असामान्य व्यवहार को चिन्हित किया, जिसके चलते संबंधित खातों को समाप्त किया गया और खुफिया जानकारी साझेदार प्लेटफॉर्म्स के साथ साझा की गई।
OpenAI ने अपनी रिपोर्ट में कहा, "हम मानते हैं कि साझा करना और पारदर्शिता सभी हितधारकों में अधिक जागरूकता और तैयारी को बढ़ावा देती है, जिससे लगातार बदलते विरोधियों के खिलाफ सामूहिक रक्षा मजबूत होती है।" हालांकि जनरेटिव AI ने पूरी तरह से नई खतरे की श्रेणियाँ नहीं बनाई हैं, लेकिन इसने दुर्भावनापूर्ण तत्वों के लिए तकनीकी बाधाएँ काफी कम कर दी हैं और समन्वित हमलों की दक्षता बढ़ा दी है।
सुरक्षा विशेषज्ञों का कहना है कि संगठनों को सतर्क रहना चाहिए कि विरोधी किस तरह बड़े भाषा मॉडल्स को अपने अभियानों में अपना रहे हैं, और OpenAI, Google, Meta और Anthropic जैसी कंपनियों द्वारा साझा की जा रही रियल-टाइम इंटेलिजेंस के साथ जुड़कर इन विकसित होते खतरों के खिलाफ सामूहिक रक्षा को मजबूत करना चाहिए।