menu
close

AI முகவர் பாதுகாப்பை அச்சுறுத்தும் 'மூன்று பேரழி'யை கூகுள் கண்டறிந்தது

கூகுள் ஆராய்ச்சியாளர்கள் சாண்டியாகோ டியாஸ், கிறிஸ்டோஃப் கெர்ன் மற்றும் காரா ஒலிவ் ஆகியோர் AI முகவர் பாதுகாப்பு குறைபாடுகள் குறித்த புரட்சி அளிக்கும் ஆய்வை வெளியிட்டுள்ளனர். 2025 ஜூன் மாதம் வெளியான இவர்களின் ஆய்வில், 'மூன்று பேரழி' எனப் பெயரிடப்பட்ட முக்கியமான பாதுகாப்பு முறை கண்டறியப்பட்டுள்ளது: தனிப்பட்ட தரவுகளுக்கான அணுகல், நம்பிக்கையற்ற உள்ளடக்கத்துடன் தொடர்பு, மற்றும் வெளிப்புற தொடர்பு திறன் ஆகிய மூன்றின் ஆபத்தான இணைப்பு. இந்த ஆய்வு, அதிகமாக தன்னாட்சி பெற்ற AI அமைப்புகளை prompt injection மற்றும் தரவு திருட்டு தாக்குதல்களிலிருந்து பாதுகாப்பதற்கான முக்கியமான தகவல்களை வழங்குகிறது.
AI முகவர் பாதுகாப்பை அச்சுறுத்தும் 'மூன்று பேரழி'யை கூகுள் கண்டறிந்தது

AI பாதுகாப்பில் முக்கிய முன்னேற்றமாக, கூகுள் ஆராய்ச்சியாளர்கள் AI முகவர் அமைப்புகளின் முழுமையை அச்சுறுத்தும் அடிப்படை குறைபாடு முறையை கண்டுபிடித்துள்ளனர்.

2025 ஜூன் 15-ஆம் தேதி, கூகுளின் பாதுகாப்பு குழுவினர் 'AI முகவர் பாதுகாப்புக்கான கூகுளின் அணுகுமுறை அறிமுகம்' என்ற ஆய்வை வெளியிட்டனர். இதை சாண்டியாகோ டியாஸ், கிறிஸ்டோஃப் கெர்ன் மற்றும் காரா ஒலிவ் ஆகியோர் எழுதியுள்ளனர். இந்த ஆய்வில், "சுற்றியுள்ள சூழலை உணர்ந்து, முடிவெடுத்து, பயனர் வரையறுத்த இலக்குகளை அடைய தன்னாட்சி நடவடிக்கைகள் எடுக்கும் AI அமைப்புகள்" என AI முகவர்களை கூகுள் வரையறுக்கிறது. அவற்றை பாதுகாப்பதற்கான கூகுளின் விருப்பமான கட்டமைப்பும் இதில் விவரிக்கப்படுகிறது.

இந்த ஆய்வு இரண்டு முக்கிய பாதுகாப்பு கவலைகளை முன்வைக்கிறது: தவறான அல்லது தீங்கு விளைவிக்கும் செயல்கள் (policy-ஐ மீறுதல் உட்பட) மற்றும் முக்கியமான தரவு வெளிப்பாடு (அனுமதியில்லாமல் தனிப்பட்ட தகவல்கள் வெளியாவுதல்). இந்த ஆபத்துகளை சமாளிக்க, கூகுள் பாரம்பரிய பாதுகாப்பு கட்டுப்பாடுகளும், இயக்கநிலை மற்றும் காரணம் சார்ந்த பாதுகாப்பு முறைகளும் இணைந்துள்ள கலப்பு, பல அடுக்குப் பாதுகாப்பு அணுகுமுறையை பரிந்துரைக்கிறது.

இதனைத் தொடர்ந்து, 2025 ஜூன் 16-ஆம் தேதி வெளியான தொடர்புடைய ஆய்வில், AI முகவர்களுக்கு 'மூன்று பேரழி' என்ற புதிய கருத்தை அறிமுகப்படுத்தினர். இதில், மூன்று திறன்களின் ஆபத்தான இணைப்பு - தனிப்பட்ட தரவுகளுக்கான அணுகல், நம்பிக்கையற்ற உள்ளடக்கத்துடன் தொடர்பு, மற்றும் வெளிப்புற தொடர்பு திறன் - மிகப்பெரிய பாதுகாப்பு குறைபாடுகளை உருவாக்கும் எனக் கூறப்படுகிறது. இந்த மூன்றும் ஒரே AI அமைப்பில் இணைந்தால், தாக்குதலாளர்கள் அந்த முகவரை ஏமாற்றி முக்கியமான தகவல்களை திருடி வெளியே அனுப்ப முடியும்.

'Prompt injection' என்ற 용term-ஐ சில ஆண்டுகளுக்கு முன்பு உருவாக்கிய பாதுகாப்பு ஆராய்ச்சியாளர் சைமன் வில்லிசன், இந்த குறைபாடு முறையை புரிந்து கொள்வது மிக முக்கியம் எனக் கூறுகிறார். "உங்கள் முகவரிடம் இந்த மூன்று அம்சங்களும் இருந்தால், ஒரு தாக்குதலாளர் எளிதாக உங்கள் தனிப்பட்ட தரவுகளை அணுகச் செய்து, அதை அவரிடம் அனுப்பச் செய்ய முடியும்" என்று கூகுள் ஆய்வை விமர்சித்தார்.

AI முகவர்கள் அதிக தன்னாட்சி பெறும் இந்த காலகட்டத்தில், இந்த ஆய்வு மிகவும் பொருத்தமானதாக உள்ளது. கடந்த இரண்டு ஆண்டுகளில் Microsoft, Google, Anthropic போன்ற முன்னணி தொழில்நுட்ப நிறுவனங்களின் AI தயாரிப்புகளில் இதே போன்ற பாதுகாப்பு பிரச்சனைகள் ஏற்பட்டுள்ளன. ChatGPT, Microsoft Copilot, Google Bard போன்ற அமைப்புகளில் பல தரவு திருட்டு தாக்குதல்கள் பதிவாகியுள்ளன.

AI முகவர் பாதுகாப்புக்காக கூகுள் மூன்று முக்கியக் கொள்கைகளை முன்வைக்கிறது: முகவர்களுக்கு தெளிவான மனிதக் கட்டுப்பாடு இருக்க வேண்டும், அவர்களின் அதிகாரங்கள் கவனமாக கட்டுப்படுத்தப்பட வேண்டும், மற்றும் அவர்களின் செயல்கள் மற்றும் திட்டமிடல் கண்காணிக்கப்பட வேண்டும். இந்த வழிகாட்டுதல்கள், அதிக தன்னாட்சி பெற்ற AI அமைப்புகளை உருவாக்கும் டெவலப்பர்கள் மற்றும் நிறுவனங்களுக்கு, சிக்கலான பாதுகாப்பு சூழலில் பயனுள்ள கட்டமைப்பை வழங்குகின்றன.

Source:

Latest News