أصدرت شركة أوبن إيه آي تقريرًا شاملاً بعنوان "إحباط الاستخدامات الخبيثة للذكاء الاصطناعي: يونيو 2025"، كشفت فيه عن كيفية تحديدها وإحباطها لعشر حملات خبيثة استغلت أنظمتها الذكية خلال الأشهر الأولى من عام 2025.
يستعرض التقرير كيف استغلت جهات مدعومة من ست دول—الصين، روسيا، كوريا الشمالية، إيران، كمبوديا، والفلبين—أدوات مثل ChatGPT وغيرها من تقنيات الذكاء الاصطناعي لتنفيذ عمليات احتيال وظيفي، وحملات تأثير، وأنشطة بريد عشوائي. انطلقت أربع من هذه الحملات من الصين، وركزت على الهندسة الاجتماعية، وعمليات التأثير السرية، والتهديدات السيبرانية.
في إحدى الحملات التي أُطلق عليها اسم "Sneer Review"، أغرق فاعلون صينيون منصات التواصل بتعليقات ناقدة تستهدف لعبة لوحية تايوانية تتناول موضوعات مقاومة الحزب الشيوعي الصيني. وفي عملية أخرى باسم "Helgoland Bite"، أنتج فاعلون روس محتوى باللغة الألمانية ينتقد الولايات المتحدة وحلف الناتو، في محاولة للتأثير على الانتخابات الألمانية لعام 2025. كما لوحظ أن فاعلين من كوريا الشمالية استخدموا الذكاء الاصطناعي لإنتاج سير ذاتية وهمية بكميات ضخمة لوظائف تقنية عن بُعد، بهدف السيطرة على أجهزة الشركات التي تُمنح أثناء التوظيف.
اعتمدت فرق الأمن في أوبن إيه آي على الذكاء الاصطناعي كمضاعف للقدرات في جهودها التحقيقية، ما مكنها من رصد وإحباط وكشف الأنشطة المسيئة، بما في ذلك الهندسة الاجتماعية، والتجسس السيبراني، ومخططات التوظيف المضللة. وقد رصدت أنظمة الكشف لدى الشركة سلوكيات غير اعتيادية في جميع الحملات، مما أدى إلى إغلاق الحسابات ومشاركة المعلومات الاستخباراتية مع منصات شريكة.
وجاء في تقرير أوبن إيه آي: "نؤمن بأن الشفافية والمشاركة تعزز الوعي والاستعداد لدى جميع الأطراف، ما يؤدي إلى دفاع جماعي أقوى ضد الخصوم المتطورين باستمرار". وبينما لم يخلق الذكاء الاصطناعي التوليدي فئات تهديد جديدة بالكامل، إلا أنه خفّض بشكل كبير الحواجز التقنية أمام الجهات الخبيثة وزاد من فعالية الهجمات المنسقة.
ويشدد خبراء الأمن على ضرورة بقاء المؤسسات في حالة يقظة تجاه كيفية تبني الخصوم لنماذج اللغة الضخمة في عملياتهم، والانخراط مع المعلومات الاستخباراتية الفورية التي تشاركها شركات مثل أوبن إيه آي وجوجل وميتا وأنثروبيك، لبناء دفاعات جماعية أقوى ضد هذه التهديدات المتطورة.