OpenAI "Disrupting malicious uses of AI: June 2025" என்ற விரிவான அறிக்கையை வெளியிட்டுள்ளது. இதில், 2025ஆம் ஆண்டின் முதல் மாதங்களில் அதன் AI அமைப்புகளை தவறாக பயன்படுத்திய 10 தீய முயற்சிகளை நிறுவனம் எவ்வாறு கண்டறிந்து, முறியடித்தது என்பதைக் குறிப்பிடுகிறது.
இந்த அறிக்கையில், சீனா, ரஷ்யா, வட கொரியா, ஈரான், கம்போடியா மற்றும் பிலிப்பைன்ஸ் ஆகிய ஆறு நாடுகளின் அரசால் ஆதரிக்கப்படும் குழுக்கள் ChatGPT மற்றும் பிற AI கருவிகளை வேலைவாய்ப்பு மோசடிகள், கருத்து தாக்குதல் நடவடிக்கைகள் மற்றும் ஸ்பாம் பிரச்சாரங்களில் பயன்படுத்தியுள்ளன என்று விளக்கப்பட்டுள்ளது. இதில் நான்கு முயற்சிகள் சீனாவிலிருந்து வந்தவை, அவை சமூக பொறியியல், மறைமுக கருத்து தாக்குதல் மற்றும் இணைய அச்சுறுத்தல்களில் கவனம் செலுத்தின.
"Sneer Review" என அழைக்கப்பட்ட ஒரு முயற்சியில், சீன குழுக்கள், சீன கம்யூனிஸ்ட் கட்சிக்கு எதிராக உள்ள கருத்துக்களைக் கொண்ட தைவான் சதுரங்க விளையாட்டை குறிவைத்து, சமூக ஊடகங்களில் விமர்சன கருத்துக்களை வெள்ளமாக வெளியிட்டனர். மற்றொரு "Helgoland Bite" என்ற நடவடிக்கையில், ரஷ்ய குழுக்கள் ஜெர்மன் மொழியில் அமெரிக்கா மற்றும் NATO-வை விமர்சிக்கும் உள்ளடக்கங்களை உருவாக்கி, ஜெர்மன் 2025 தேர்தலை பாதிக்க முயன்றனர். வட கொரிய குழுக்கள், தொலைதூர தொழில்நுட்ப வேலைகளுக்காக போலி வாழ்க்கை வரலாறுகளை AI மூலம் பெருமளவில் தயாரித்து, நிறுவன சாதனங்களை கட்டுப்படுத்த முயன்றனர்.
OpenAI-யின் பாதுகாப்பு குழுக்கள், தங்களது விசாரணை முயற்சிகளில் AI-யை பலப்படுத்தியாக பயன்படுத்தினர். இதன் மூலம் சமூக பொறியியல், இணைய உளவு, மற்றும் மோசடி வேலைவாய்ப்பு திட்டங்கள் உள்ளிட்ட தவறான செயல்பாடுகளை கண்டறிந்து, முறியடித்து, வெளிப்படுத்த முடிந்தது. அனைத்து முயற்சிகளிலும், நிறுவனத்தின் கண்டறிதல் அமைப்புகள் சந்தேகத்திற்கிடமான செயல்பாடுகளை அடையாளம் காட்டி, கணக்குகள் முடக்கப்பட்டன மற்றும் பங்குதாரர் தளங்களுடன் தகவல் பகிரப்பட்டது.
"பகிர்வு மற்றும் வெளிப்படைத்தன்மை அனைத்து பங்குதாரர்களிடமும் விழிப்புணர்வையும் தயாரிப்பையும் மேம்படுத்தும்; இது தொடர்ந்து மாறும் எதிரிகளுக்கு எதிராக வலுவான கூட்டு பாதுகாப்பை உருவாக்கும்" என்று OpenAI தனது அறிக்கையில் தெரிவித்துள்ளது. உருவாக்கும் AI முற்றிலும் புதிய அச்சுறுத்தல் வகைகளை உருவாக்கவில்லை என்றாலும், தீய நோக்கமுள்ளவர்களுக்கு தொழில்நுட்ப தடைகளை குறிப்பிடத்தக்க அளவில் குறைத்து, ஒருங்கிணைந்த தாக்குதல்களின் செயல்திறனை அதிகரித்துள்ளது.
பாதுகாப்பு நிபுணர்கள், எதிரிகள் பெரிய மொழி மாதிரிகளை தங்கள் நடவடிக்கைகளில் எவ்வாறு பயன்படுத்துகிறார்கள் என்பதை நிறுவனங்கள் தொடர்ந்து கவனிக்க வேண்டும் என்றும், OpenAI, Google, Meta, Anthropic போன்ற நிறுவனங்கள் பகிரும் நேரடி நுண்ணறிவுடன் இணைந்து செயல்பட வேண்டும் என்றும், இவ்வாறான வளர்ந்து வரும் அச்சுறுத்தல்களுக்கு எதிராக வலுவான கூட்டு பாதுகாப்பை உருவாக்க முடியும் என்றும் வலியுறுத்துகின்றனர்.