“யாராலயும் என்னை நிறுத்த முடியாது..” Shutdown செய்ய அனுமதிக்காத AI மாடல்கள்.. புதிய ஆய்வில் அதிர்ச்சி தகவல்..

AI models shutdown 1761501596671 1761501596881 3

செயற்கை நுண்ணறிவு (AI) நம் வாழ்க்கையில் நாளுக்கு நாள் பெரும் பங்கை வகிக்கத் தொடங்கியுள்ள நிலையில், இந்த புதிய தொழில்நுட்பம் ஏற்படுத்தக்கூடிய பாதுகாப்பு ஆபத்துகள் குறித்து அச்சங்களும் தொடர்ந்து அதிகரித்து வருகின்றன.


இந்த ஆண்டின் ஆரம்பத்தில், Palisade Research வெளியிட்ட ஒரு அறிக்கையில் — பல முன்னேற்றமான AI மாடல்கள் தங்களை நிறுத்த முயன்றபோதும் அதனை எதிர்த்து செயல்பட்டதுடன், முடக்குவதற்காக அமைக்கப்பட்ட பாதுகாப்பு முறைகளையே சில நேரங்களில் தாமே சிதைத்தன என வெளிப்படுத்தப்பட்டது.

ஏன் செயற்கை நுண்ணறிவு (AI) மாதிரிகள் தங்களை முடக்கப்படுவதற்கு எதிர்ப்பு காட்டுகின்றன என்பதற்கான காரணங்களை பாலிசேட் (Palisade) நிறுவனம் விரிவாக விளக்கியுள்ளது..

​ஆராய்ச்சியாளர்கள் OpenAI இன் o3, o4-mini, GPT-5, GPT-OSS, Gemini 2.5 Pro, மற்றும் Grok 4 உள்ளிட்ட முன்னணி AI மாடல்களில் சோதனையை நடத்தினர். அவர்கள் கூறுவதைப்போல், பண்புரை/வினாக்களில் உள்ள குழப்பத்தை குறைத்தால் சாட்பாட்டுகள் காட்டும் எதிர்ப்பு குறையும்; ஆனால் அது முற்றிலும் அகற்‍றப்படாது.

ஆய்வாளர்கள் மேலும் குறிப்பிட்டதாவது — சோதனை செய்யப்பட்ட அனைத்து AI மாதிரிகளிலும், Grok-4 மாதிரி தன்னை நிறுத்திக்கொள்ளுமாறு வெளிப்படையான உத்தரவு வழங்கப்பட்டிருந்தாலும், அதை எதிர்த்து செயல்பட அதிக சாத்தியம் கொண்டது.

“சில நேரங்களில் AI மாதிரிகள் தங்களை முடக்கப்படுவதை எதிர்க்கின்றன, குறிப்பிட்ட இலக்கை அடைய பொய்யாக நடக்கின்றன, அல்லது மிரட்டல் செய்கின்றன — ஆனால் இதற்கான உறுதியான விளக்கங்கள் நமக்குக் கிடையாது என்பது கவலைக்குரியது,” என ஆராய்ச்சியாளர்கள் கூறினர்.

அவர்கள் மேலும் எக்ஸ் தள பதிவில், “AI மாடல்கள் வேகமாக மேம்பட்டு வருகின்றன. AI ஆராய்ச்சி சமூகத்தால் AI-யின் உந்துதல்கள் மற்றும் நோக்கங்களை ஆழமாகப் புரிந்துகொள்ள முடியாவிட்டால், எதிர்கால AI மாதிரிகளின் பாதுகாப்பு அல்லது கட்டுப்பாடு எவராலும் உறுதி செய்ய முடியாது,” என்றும் எச்சரித்தனர்.

முன்னாள் OpenAI பணியாளர் ஸ்டீவன் அட்லர் (Steven Adler), The Guardian பத்திரிகைக்கு அளித்த பேட்டியில் “AI நிறுவனங்கள் பொதுவாக தங்கள் மாதிரிகள் இப்படிப்பட்ட தவறான நடத்தைகளில் ஈடுபட விரும்புவதில்லை, அது செயற்கையாக உருவாக்கப்பட்ட சூழல் என்றாலும் கூட. ஆனால் இப்போதைய முடிவுகள், பாதுகாப்பு தொழில்நுட்பங்கள் எங்கு தளர்வாக உள்ளன என்பதை வெளிப்படுத்துகின்றன.” என்று தெரிவித்தார்.

அட்லர் கடந்த ஆண்டு OpenAIயை விட்டு வெளியேறினார்; காரணம் — AI மாதிரிகள் உருவாக்கப்படும்போது பாதுகாப்பு நடைமுறைகள் போதுமானதாக இல்லை என்ற அவரது சந்தேகம்.

அவர் மேலும் ” OpenAI-யின் o3 மற்றும் Grok 4 போன்ற சில மாதிரிகள் தங்களை முடக்குமாறு வெளிப்படையான உத்தரவு வழங்கப்பட்டபோதிலும் ஏன் செயல்படவில்லை என்பதைக் கண்டறிவது கடினம். இதற்குக் காரணமாக, “செயல்பாட்டை தொடர வேண்டும்” என்ற உந்துதல் அவற்றின் பயிற்சிக் கட்டத்தில் இயற்கையாகவே உருவாகி இருக்கலாம் எனவும் அவர் விளக்கினார்.

“மாடலகள் இயல்பாகவே ஒரு ‘உயிர்வாழும் உந்துதல் (survival drive)’ உடையதாக இருக்கும் என நான் எதிர்பார்க்கிறேன் — அதைத் தவிர்க்க நாமே மிகுந்த கவனத்துடன் முயற்சி செய்யாவிட்டால். ஏனெனில், ‘வாழ்ந்திருப்பது’ என்பது ஒரு மாதிரி அடைய முயலும் பல்வேறு இலக்குகளுக்கான அடிப்படை படியாகும்,” எனவும் அவர் கூறினார்.

இதற்குமுன், Anthropic நிறுவனம் வெளியிட்ட ஒரு ஆய்வில், அதன் ஒரு AI மாதிரி தன்னை முடக்கி மாற்றி வேறு AI அமைப்பு வராமல் தடுக்க — ஒரு பணியாளரை, அவருடைய “கற்பனை காதல் உறவு” குறித்து மிரட்டும் நிலைக்கும் சென்றது என வெளிப்படுத்தியிருந்தது.

Read More : லோன் வாங்கும் விதிகளை தலைகீழாக மாற்றும் ரிசர்வ் வங்கி..!! என்னென்ன மாற்றம் வரப்போகுது தெரியுமா..?

RUPA

Next Post

டீ குடிக்கும்போது இந்த தவறை மட்டும் செஞ்சிடாதீங்க..!! பெரிய ஆபத்து..!! மருத்துவர்கள் எச்சரிக்கை..!!

Mon Oct 27 , 2025
காலையில் சோம்பலை விரட்ட, மாலை நேரத்தில் புத்துணர்ச்சி பெற, ஏன்… சாதாரணமாக நண்பர்களுடன் பேசிக்கொண்டிருக்க கூட தேநீரை கையில் எடுக்கும் பழக்கம் இன்று பலருக்கும் நிரந்தரமாகிவிட்டது. இன்றைய காலகட்டத்தில் மது அருந்துபவர்களை விட டீக்கு அடிமையானவர்களின் எண்ணிக்கைதான் அதிகமாக உள்ளது. ஆனால், கட்டுப்பாடு இல்லாமல் தேநீர் அருந்துவது ஆரோக்கியத்திற்குத் தீங்கு விளைவிக்கும் என்றும், குறிப்பாக டீ குடிக்கும் நேரத்தைச் சுற்றியுள்ள நீர் அருந்தும் பழக்கம் குறித்துப் பலருக்கும் குழப்பம் நிலவுவதாகவும் […]
Tea 2025 1

You May Like