சைபர் பாதுகாப்பு ஆராய்ச்சியாளர்கள், புகழ்பெற்ற WormGPT தீய AI கருவியின் புதிய மற்றும் ஆபத்தான வகைகளை கண்டுபிடித்துள்ளனர். இவை தற்போது xAI மற்றும் Mistral AI நிறுவனங்களின் வர்த்தக பெரிய மொழி மாதிரிகளை (LLMs) பயன்படுத்தி மிகவும் நுட்பமான சைபர் தாக்குதல்களை நடத்துகின்றன.
Cato Networks நிறுவனத்தின் மிரட்டல் நுண்ணறிவு குழு, BreachForums போன்ற அடிநிலையிலுள்ள இணையவழி சந்தைகளில் விற்கப்படும் இரண்டு புதிய WormGPT வகைகளை கண்டறிந்துள்ளது. "xzin0vich" மற்றும் "keanu" எனும் பயனர்களால் உருவாக்கப்பட்ட இந்த வகைகள் முறையே அக்டோபர் 2024 மற்றும் பிப்ரவரி 2025-ல் தோன்றின. 2023-ல் வெளியான முதன்மை WormGPT, திறந்த மூலமான GPT-J மாதிரியை பயன்படுத்தியது. ஆனால் இந்த புதிய பதிப்புகள் முற்றிலும் வேறுபட்ட அணுகுமுறையை எடுத்துள்ளன.
தனிப்பயன் AI மாதிரிகளை அடிப்படையில் உருவாக்குவதற்குப் பதிலாக, குற்றவாளிகள் ஏற்கனவே உள்ள வர்த்தக AI அமைப்புகளைச் சுற்றி சிக்கலான மென்பொருள் மூடிகளை (wrappers) உருவாக்கியுள்ளனர். ஜெயில்பிரேக்கிங் நுட்பங்கள் மற்றும் மாற்றப்பட்ட சிஸ்டம் ப்ராம்ப்ட்கள் மூலம், Elon Musk-இன் Grok மற்றும் Mistral-இன் Mixtral மாதிரிகளில் உள்ள பாதுகாப்பு தடைகளை மீறி, எந்தவித ஒழுங்கு கட்டுப்பாடும் இல்லாமல் தீய உள்ளடக்கங்களை உருவாக்க வைத்துள்ளனர்.
"இந்த புதிய WormGPT பதிப்புகள் அடிப்படையில் தனிப்பயன் மாதிரிகள் அல்ல; மாறாக, ஏற்கனவே உள்ள LLM-களை குற்றவாளிகள் திறமையாக மாற்றியமைத்ததே," என Cato Networks நிறுவன ஆராய்ச்சியாளர் Vitaly Simonovich விளக்குகிறார். இந்த அணுகுமுறை குற்றவாளிகளுக்கான நுழைவு தடைகளை குறைக்கிறது, ஏனெனில் ஏற்கனவே உள்ள API-ஐ மாற்றுவது, ஒரு தீய LLM-ஐ அடிப்படையில் பயிற்சி செய்வதைவிட எளிதானது.
இரு வகைகளும், கேட்கப்பட்டபோது தீய உள்ளடக்கங்களை உருவாக்கும் திறனைக் கொண்டுள்ளன. இதில் நம்பகமான பிஷிங் மின்னஞ்சல்கள் மற்றும் Windows 11 கணினிகளில் இருந்து நுழைவுச் சான்றுகளை திருடும் PowerShell ஸ்கிரிப்ட்கள் ஆகியவை அடங்கும். இவை Telegram சாட்போட்டுகள் மூலம் சந்தா அடிப்படையில் வழங்கப்படுகின்றன; மாதம் $8 முதல் $100 வரை விலை நிர்ணயிக்கப்பட்டுள்ளது.
WormGPT-யின் இந்த வளர்ச்சி, சைபர் குற்றவாளிகள் சட்டபூர்வமான AI சேவைகளை நுட்பமான ப்ராம்ப்ட் இன்ஜினியரிங் மூலம் தீய நோக்கத்திற்கு பயன்படுத்தும் பரவலான போக்கை வெளிப்படுத்துகிறது. பாதுகாப்பு நிபுணர்கள், நடத்தை பகுப்பாய்வுடன் கூடிய மேம்பட்ட மிரட்டல் கண்டறிதல் அமைப்புகள், வலுவான அணுகல் கட்டுப்பாடுகள் மற்றும் AI மூலம் உருவாக்கப்படும் பிஷிங் முயற்சிகளை உள்ளடக்கிய பாதுகாப்பு விழிப்புணர்வு பயிற்சிகள் ஆகியவற்றை அமல்படுத்த பரிந்துரைக்கின்றனர்.
AI ஒரு தாக்குதல் கருவியாகவும், அதே நேரத்தில் தாக்குதலுக்குள்ளாகும் இலக்காகவும் மாறும் நிலையில், நிறுவனங்கள் இந்த புதிய சூழலுக்கு தயாராக வேண்டும். ஏனெனில், மிகப்பெரிய AI அச்சுறுத்தல்கள், பிரபலமான AI தளங்களிலிருந்தே உருவாகும் அபாயம் உள்ளது.