menu
close

OpenAI 10 அரசால் ஆதரிக்கப்படும் AI தவறான பயன்பாட்டு முயற்சிகளை தடுக்கிறது

OpenAI தனது 2025 ஜூன் அறிக்கையில், 2025ஆம் ஆண்டு தொடக்கத்தில் ChatGPT-யை வேலைவாய்ப்பு மோசடிகள், கருத்து தாக்குதல் நடவடிக்கைகள் மற்றும் ஸ்பாம் செயல்களில் பயன்படுத்திய 10 தீய முயற்சிகளை நிறுவனம் எவ்வாறு முறியடித்தது என்பதை விளக்குகிறது. சீனா, ரஷ்யா மற்றும் ஈரானைச் சேர்ந்த அரசால் ஆதரிக்கப்படும் குழுக்கள், மோசடிகள், இணைய ஊடுருவல்கள் மற்றும் உலகளாவிய கருத்து தாக்குதல் நடவடிக்கைகளில் AI கருவிகளை பயன்படுத்தினர். உருவாக்கும் AI புதிய அச்சுறுத்தல் வகைகளை உருவாக்கவில்லை என்றாலும், தீய நோக்கமுள்ளவர்களுக்கு தொழில்நுட்ப தடைகளை குறைத்து, ஒருங்கிணைந்த தாக்குதல்களின் செயல்திறனை அதிகரித்துள்ளது.
OpenAI 10 அரசால் ஆதரிக்கப்படும் AI தவறான பயன்பாட்டு முயற்சிகளை தடுக்கிறது

OpenAI "Disrupting malicious uses of AI: June 2025" என்ற விரிவான அறிக்கையை வெளியிட்டுள்ளது. இதில், 2025ஆம் ஆண்டின் முதல் மாதங்களில் அதன் AI அமைப்புகளை தவறாக பயன்படுத்திய 10 தீய முயற்சிகளை நிறுவனம் எவ்வாறு கண்டறிந்து, முறியடித்தது என்பதைக் குறிப்பிடுகிறது.

இந்த அறிக்கையில், சீனா, ரஷ்யா, வட கொரியா, ஈரான், கம்போடியா மற்றும் பிலிப்பைன்ஸ் ஆகிய ஆறு நாடுகளின் அரசால் ஆதரிக்கப்படும் குழுக்கள் ChatGPT மற்றும் பிற AI கருவிகளை வேலைவாய்ப்பு மோசடிகள், கருத்து தாக்குதல் நடவடிக்கைகள் மற்றும் ஸ்பாம் பிரச்சாரங்களில் பயன்படுத்தியுள்ளன என்று விளக்கப்பட்டுள்ளது. இதில் நான்கு முயற்சிகள் சீனாவிலிருந்து வந்தவை, அவை சமூக பொறியியல், மறைமுக கருத்து தாக்குதல் மற்றும் இணைய அச்சுறுத்தல்களில் கவனம் செலுத்தின.

"Sneer Review" என அழைக்கப்பட்ட ஒரு முயற்சியில், சீன குழுக்கள், சீன கம்யூனிஸ்ட் கட்சிக்கு எதிராக உள்ள கருத்துக்களைக் கொண்ட தைவான் சதுரங்க விளையாட்டை குறிவைத்து, சமூக ஊடகங்களில் விமர்சன கருத்துக்களை வெள்ளமாக வெளியிட்டனர். மற்றொரு "Helgoland Bite" என்ற நடவடிக்கையில், ரஷ்ய குழுக்கள் ஜெர்மன் மொழியில் அமெரிக்கா மற்றும் NATO-வை விமர்சிக்கும் உள்ளடக்கங்களை உருவாக்கி, ஜெர்மன் 2025 தேர்தலை பாதிக்க முயன்றனர். வட கொரிய குழுக்கள், தொலைதூர தொழில்நுட்ப வேலைகளுக்காக போலி வாழ்க்கை வரலாறுகளை AI மூலம் பெருமளவில் தயாரித்து, நிறுவன சாதனங்களை கட்டுப்படுத்த முயன்றனர்.

OpenAI-யின் பாதுகாப்பு குழுக்கள், தங்களது விசாரணை முயற்சிகளில் AI-யை பலப்படுத்தியாக பயன்படுத்தினர். இதன் மூலம் சமூக பொறியியல், இணைய உளவு, மற்றும் மோசடி வேலைவாய்ப்பு திட்டங்கள் உள்ளிட்ட தவறான செயல்பாடுகளை கண்டறிந்து, முறியடித்து, வெளிப்படுத்த முடிந்தது. அனைத்து முயற்சிகளிலும், நிறுவனத்தின் கண்டறிதல் அமைப்புகள் சந்தேகத்திற்கிடமான செயல்பாடுகளை அடையாளம் காட்டி, கணக்குகள் முடக்கப்பட்டன மற்றும் பங்குதாரர் தளங்களுடன் தகவல் பகிரப்பட்டது.

"பகிர்வு மற்றும் வெளிப்படைத்தன்மை அனைத்து பங்குதாரர்களிடமும் விழிப்புணர்வையும் தயாரிப்பையும் மேம்படுத்தும்; இது தொடர்ந்து மாறும் எதிரிகளுக்கு எதிராக வலுவான கூட்டு பாதுகாப்பை உருவாக்கும்" என்று OpenAI தனது அறிக்கையில் தெரிவித்துள்ளது. உருவாக்கும் AI முற்றிலும் புதிய அச்சுறுத்தல் வகைகளை உருவாக்கவில்லை என்றாலும், தீய நோக்கமுள்ளவர்களுக்கு தொழில்நுட்ப தடைகளை குறிப்பிடத்தக்க அளவில் குறைத்து, ஒருங்கிணைந்த தாக்குதல்களின் செயல்திறனை அதிகரித்துள்ளது.

பாதுகாப்பு நிபுணர்கள், எதிரிகள் பெரிய மொழி மாதிரிகளை தங்கள் நடவடிக்கைகளில் எவ்வாறு பயன்படுத்துகிறார்கள் என்பதை நிறுவனங்கள் தொடர்ந்து கவனிக்க வேண்டும் என்றும், OpenAI, Google, Meta, Anthropic போன்ற நிறுவனங்கள் பகிரும் நேரடி நுண்ணறிவுடன் இணைந்து செயல்பட வேண்டும் என்றும், இவ்வாறான வளர்ந்து வரும் அச்சுறுத்தல்களுக்கு எதிராக வலுவான கூட்டு பாதுகாப்பை உருவாக்க முடியும் என்றும் வலியுறுத்துகின்றனர்.

Source: Techrepublic

Latest News