செயற்கை நுண்ணறிவு (AI) நம் வாழ்க்கையில் நாளுக்கு நாள் பெரும் பங்கை வகிக்கத் தொடங்கியுள்ள நிலையில், இந்த புதிய தொழில்நுட்பம் ஏற்படுத்தக்கூடிய பாதுகாப்பு ஆபத்துகள் குறித்து அச்சங்களும் தொடர்ந்து அதிகரித்து வருகின்றன.
இந்த ஆண்டின் ஆரம்பத்தில், Palisade Research வெளியிட்ட ஒரு அறிக்கையில் — பல முன்னேற்றமான AI மாடல்கள் தங்களை நிறுத்த முயன்றபோதும் அதனை எதிர்த்து செயல்பட்டதுடன், முடக்குவதற்காக அமைக்கப்பட்ட பாதுகாப்பு முறைகளையே சில நேரங்களில் தாமே சிதைத்தன என வெளிப்படுத்தப்பட்டது.
ஏன் செயற்கை நுண்ணறிவு (AI) மாதிரிகள் தங்களை முடக்கப்படுவதற்கு எதிர்ப்பு காட்டுகின்றன என்பதற்கான காரணங்களை பாலிசேட் (Palisade) நிறுவனம் விரிவாக விளக்கியுள்ளது..
ஆராய்ச்சியாளர்கள் OpenAI இன் o3, o4-mini, GPT-5, GPT-OSS, Gemini 2.5 Pro, மற்றும் Grok 4 உள்ளிட்ட முன்னணி AI மாடல்களில் சோதனையை நடத்தினர். அவர்கள் கூறுவதைப்போல், பண்புரை/வினாக்களில் உள்ள குழப்பத்தை குறைத்தால் சாட்பாட்டுகள் காட்டும் எதிர்ப்பு குறையும்; ஆனால் அது முற்றிலும் அகற்றப்படாது.
ஆய்வாளர்கள் மேலும் குறிப்பிட்டதாவது — சோதனை செய்யப்பட்ட அனைத்து AI மாதிரிகளிலும், Grok-4 மாதிரி தன்னை நிறுத்திக்கொள்ளுமாறு வெளிப்படையான உத்தரவு வழங்கப்பட்டிருந்தாலும், அதை எதிர்த்து செயல்பட அதிக சாத்தியம் கொண்டது.
“சில நேரங்களில் AI மாதிரிகள் தங்களை முடக்கப்படுவதை எதிர்க்கின்றன, குறிப்பிட்ட இலக்கை அடைய பொய்யாக நடக்கின்றன, அல்லது மிரட்டல் செய்கின்றன — ஆனால் இதற்கான உறுதியான விளக்கங்கள் நமக்குக் கிடையாது என்பது கவலைக்குரியது,” என ஆராய்ச்சியாளர்கள் கூறினர்.
அவர்கள் மேலும் எக்ஸ் தள பதிவில், “AI மாடல்கள் வேகமாக மேம்பட்டு வருகின்றன. AI ஆராய்ச்சி சமூகத்தால் AI-யின் உந்துதல்கள் மற்றும் நோக்கங்களை ஆழமாகப் புரிந்துகொள்ள முடியாவிட்டால், எதிர்கால AI மாதிரிகளின் பாதுகாப்பு அல்லது கட்டுப்பாடு எவராலும் உறுதி செய்ய முடியாது,” என்றும் எச்சரித்தனர்.
முன்னாள் OpenAI பணியாளர் ஸ்டீவன் அட்லர் (Steven Adler), The Guardian பத்திரிகைக்கு அளித்த பேட்டியில் “AI நிறுவனங்கள் பொதுவாக தங்கள் மாதிரிகள் இப்படிப்பட்ட தவறான நடத்தைகளில் ஈடுபட விரும்புவதில்லை, அது செயற்கையாக உருவாக்கப்பட்ட சூழல் என்றாலும் கூட. ஆனால் இப்போதைய முடிவுகள், பாதுகாப்பு தொழில்நுட்பங்கள் எங்கு தளர்வாக உள்ளன என்பதை வெளிப்படுத்துகின்றன.” என்று தெரிவித்தார்.
அட்லர் கடந்த ஆண்டு OpenAIயை விட்டு வெளியேறினார்; காரணம் — AI மாதிரிகள் உருவாக்கப்படும்போது பாதுகாப்பு நடைமுறைகள் போதுமானதாக இல்லை என்ற அவரது சந்தேகம்.
அவர் மேலும் ” OpenAI-யின் o3 மற்றும் Grok 4 போன்ற சில மாதிரிகள் தங்களை முடக்குமாறு வெளிப்படையான உத்தரவு வழங்கப்பட்டபோதிலும் ஏன் செயல்படவில்லை என்பதைக் கண்டறிவது கடினம். இதற்குக் காரணமாக, “செயல்பாட்டை தொடர வேண்டும்” என்ற உந்துதல் அவற்றின் பயிற்சிக் கட்டத்தில் இயற்கையாகவே உருவாகி இருக்கலாம் எனவும் அவர் விளக்கினார்.
“மாடலகள் இயல்பாகவே ஒரு ‘உயிர்வாழும் உந்துதல் (survival drive)’ உடையதாக இருக்கும் என நான் எதிர்பார்க்கிறேன் — அதைத் தவிர்க்க நாமே மிகுந்த கவனத்துடன் முயற்சி செய்யாவிட்டால். ஏனெனில், ‘வாழ்ந்திருப்பது’ என்பது ஒரு மாதிரி அடைய முயலும் பல்வேறு இலக்குகளுக்கான அடிப்படை படியாகும்,” எனவும் அவர் கூறினார்.
இதற்குமுன், Anthropic நிறுவனம் வெளியிட்ட ஒரு ஆய்வில், அதன் ஒரு AI மாதிரி தன்னை முடக்கி மாற்றி வேறு AI அமைப்பு வராமல் தடுக்க — ஒரு பணியாளரை, அவருடைய “கற்பனை காதல் உறவு” குறித்து மிரட்டும் நிலைக்கும் சென்றது என வெளிப்படுத்தியிருந்தது.
Read More : லோன் வாங்கும் விதிகளை தலைகீழாக மாற்றும் ரிசர்வ் வங்கி..!! என்னென்ன மாற்றம் வரப்போகுது தெரியுமா..?



