AI பாதுகாப்பில் முக்கிய முன்னேற்றமாக, கூகுள் ஆராய்ச்சியாளர்கள் AI முகவர் அமைப்புகளின் முழுமையை அச்சுறுத்தும் அடிப்படை குறைபாடு முறையை கண்டுபிடித்துள்ளனர்.
2025 ஜூன் 15-ஆம் தேதி, கூகுளின் பாதுகாப்பு குழுவினர் 'AI முகவர் பாதுகாப்புக்கான கூகுளின் அணுகுமுறை அறிமுகம்' என்ற ஆய்வை வெளியிட்டனர். இதை சாண்டியாகோ டியாஸ், கிறிஸ்டோஃப் கெர்ன் மற்றும் காரா ஒலிவ் ஆகியோர் எழுதியுள்ளனர். இந்த ஆய்வில், "சுற்றியுள்ள சூழலை உணர்ந்து, முடிவெடுத்து, பயனர் வரையறுத்த இலக்குகளை அடைய தன்னாட்சி நடவடிக்கைகள் எடுக்கும் AI அமைப்புகள்" என AI முகவர்களை கூகுள் வரையறுக்கிறது. அவற்றை பாதுகாப்பதற்கான கூகுளின் விருப்பமான கட்டமைப்பும் இதில் விவரிக்கப்படுகிறது.
இந்த ஆய்வு இரண்டு முக்கிய பாதுகாப்பு கவலைகளை முன்வைக்கிறது: தவறான அல்லது தீங்கு விளைவிக்கும் செயல்கள் (policy-ஐ மீறுதல் உட்பட) மற்றும் முக்கியமான தரவு வெளிப்பாடு (அனுமதியில்லாமல் தனிப்பட்ட தகவல்கள் வெளியாவுதல்). இந்த ஆபத்துகளை சமாளிக்க, கூகுள் பாரம்பரிய பாதுகாப்பு கட்டுப்பாடுகளும், இயக்கநிலை மற்றும் காரணம் சார்ந்த பாதுகாப்பு முறைகளும் இணைந்துள்ள கலப்பு, பல அடுக்குப் பாதுகாப்பு அணுகுமுறையை பரிந்துரைக்கிறது.
இதனைத் தொடர்ந்து, 2025 ஜூன் 16-ஆம் தேதி வெளியான தொடர்புடைய ஆய்வில், AI முகவர்களுக்கு 'மூன்று பேரழி' என்ற புதிய கருத்தை அறிமுகப்படுத்தினர். இதில், மூன்று திறன்களின் ஆபத்தான இணைப்பு - தனிப்பட்ட தரவுகளுக்கான அணுகல், நம்பிக்கையற்ற உள்ளடக்கத்துடன் தொடர்பு, மற்றும் வெளிப்புற தொடர்பு திறன் - மிகப்பெரிய பாதுகாப்பு குறைபாடுகளை உருவாக்கும் எனக் கூறப்படுகிறது. இந்த மூன்றும் ஒரே AI அமைப்பில் இணைந்தால், தாக்குதலாளர்கள் அந்த முகவரை ஏமாற்றி முக்கியமான தகவல்களை திருடி வெளியே அனுப்ப முடியும்.
'Prompt injection' என்ற 용term-ஐ சில ஆண்டுகளுக்கு முன்பு உருவாக்கிய பாதுகாப்பு ஆராய்ச்சியாளர் சைமன் வில்லிசன், இந்த குறைபாடு முறையை புரிந்து கொள்வது மிக முக்கியம் எனக் கூறுகிறார். "உங்கள் முகவரிடம் இந்த மூன்று அம்சங்களும் இருந்தால், ஒரு தாக்குதலாளர் எளிதாக உங்கள் தனிப்பட்ட தரவுகளை அணுகச் செய்து, அதை அவரிடம் அனுப்பச் செய்ய முடியும்" என்று கூகுள் ஆய்வை விமர்சித்தார்.
AI முகவர்கள் அதிக தன்னாட்சி பெறும் இந்த காலகட்டத்தில், இந்த ஆய்வு மிகவும் பொருத்தமானதாக உள்ளது. கடந்த இரண்டு ஆண்டுகளில் Microsoft, Google, Anthropic போன்ற முன்னணி தொழில்நுட்ப நிறுவனங்களின் AI தயாரிப்புகளில் இதே போன்ற பாதுகாப்பு பிரச்சனைகள் ஏற்பட்டுள்ளன. ChatGPT, Microsoft Copilot, Google Bard போன்ற அமைப்புகளில் பல தரவு திருட்டு தாக்குதல்கள் பதிவாகியுள்ளன.
AI முகவர் பாதுகாப்புக்காக கூகுள் மூன்று முக்கியக் கொள்கைகளை முன்வைக்கிறது: முகவர்களுக்கு தெளிவான மனிதக் கட்டுப்பாடு இருக்க வேண்டும், அவர்களின் அதிகாரங்கள் கவனமாக கட்டுப்படுத்தப்பட வேண்டும், மற்றும் அவர்களின் செயல்கள் மற்றும் திட்டமிடல் கண்காணிக்கப்பட வேண்டும். இந்த வழிகாட்டுதல்கள், அதிக தன்னாட்சி பெற்ற AI அமைப்புகளை உருவாக்கும் டெவலப்பர்கள் மற்றும் நிறுவனங்களுக்கு, சிக்கலான பாதுகாப்பு சூழலில் பயனுள்ள கட்டமைப்பை வழங்குகின்றன.