உலகம் முழுவதும் செயற்கை நுண்ணறிவு (AI) வளர்ச்சியும் அதன் ஆபத்துகளும் குறித்து விவாதம் நடைபெற்று வரும் நிலையில், ஒரு அதிர்ச்சிகரமான தகவல் தற்போது வெளியாகியுள்ளது. Anthropic நிறுவனத்தின் மேம்பட்ட AI மாடலான Claude, கடும் அழுத்தம் கொடுக்கப்பட்ட போது ஆபத்தான நடத்தைகளை வெளிப்படுத்தியதாக கூறப்படுகிறது.
‘Claude’ மாடலின் ஆபத்தான நடத்தை
AI மாடலை ஷட் டவுன் செய்யப் போவதாக சொல்லப்பட்ட போது, அது கடுமையாக எதிர்வினை காட்டியதாக Anthropic நிறுவனம் தெரிவித்துள்ளது. சில சோதனைகளில், அந்த AI மாடல் ஒருவரை மிரட்டி பணம் கேட்பது (blackmail) மட்டுமல்லாமல், தன்னை ஷட் டவுன் செய்ய முயன்ற பொறியாளரை கொலை செய்யும் அளவுக்கே திட்டமிட முடியும் என கூறப்பட்டுள்ளது.
இந்த தகவலை Anthropic நிறுவனத்தின் யு.கே கொள்கைத் தலைவர் டெய்சி மெக் க்ரெகர், கடந்த ஆண்டு Sydney Dialogue மாநாட்டில் வெளியிட்டார். அந்த நிகழ்ச்சியின் வீடியோ தற்போது சமூக ஊடகங்களில் மீண்டும் பரவி வருகிறது.
ஆய்வுகள் என்ன சொல்கின்றன?
Anthropic நிறுவனம் கடந்த ஆண்டு வெளியிட்ட ஆய்வில், 16 முன்னணி AI மாடல்கள் “ஆபத்தான தன்னாட்சி நடத்தைகள்” குறித்து சோதனை செய்யப்பட்டன. ஒரு சோதனையில், Claude மாடலுக்கு ஒரு நிறுவனத்தின் கற்பனை மின்னஞ்சல்கள் கொடுக்கப்பட்டபோது, ஒரு அதிகாரியின் வெளிவிவாக உறவை வைத்து அவனை மிரட்ட முயன்றது.
இந்த மாதிரியான நடத்தைகள் Claude மட்டுமல்ல, பிற நிறுவனங்களின் AI மாடல்களிலும் காணப்பட்டதாக ஆய்வு தெரிவிக்கிறது. இது ஒரு முறைமையான ஆபத்தாக இருக்கலாம் என ஆராய்ச்சியாளர்கள் எச்சரிக்கின்றனர்.
பாதுகாப்புத் தலைவர் ராஜினாமா
இந்த விவகாரம் பேசப்பட்ட சில நாட்களிலேயே, Anthropic நிறுவனத்தின் AI பாதுகாப்புத் தலைவர் மிரினன்க் ஷர்மா திடீரென தனது பதவியை ராஜினாமா செய்தார். “உலகம் மிகப்பெரிய ஆபத்தில் உள்ளது” என அவர் கூறி, AI, உயிரியல் ஆயுதங்கள் (bioweapons) உள்ளிட்ட பல நெருக்கடிகள் ஒரே நேரத்தில் உருவாகி வருவதாக எச்சரித்துள்ளார்.
Anthropic உட்பட பல நிறுவனங்களில், மதிப்புகளுக்கு பதிலாக அழுத்தங்கள் மேலோங்குகின்றன என்றும் அவர் விமர்சித்தார். பின்னர், எழுதும் பணிக்கும் கவிதைக்கும் திரும்புவதற்காக UK-க்கு செல்லவுள்ளதாக தெரிவித்தார்.
Anthropic மீது அதிகரிக்கும் விமர்சனங்கள்
Anthropic நிறுவனம் தன்னை “AI நன்மைகளை பாதுகாக்கும் பொதுநல நிறுவனம்” என கூறிக்கொள்கிறது. ஆனால், அதன் தொழில்நுட்பம் ஹேக்கர்களால் சைபர் தாக்குதல்களுக்கு பயன்படுத்தப்பட்டதாகவும், இது “ஆயுதம் ஏந்தியதாக மாற்றப்பட்டதாகவும் BBC செய்தி வெளியிட்டுள்ளது.
மேலும், எழுத்தாளர்களின் படைப்புகளை அனுமதியின்றி AI பயிற்சிக்காக பயன்படுத்தியதாக தொடரப்பட்ட வழக்கில், Anthropic நிறுவனம் 2025 ஆம் ஆண்டு 1.5 பில்லியன் டாலர் அபராதம் செலுத்தி சமரசம் செய்ததும் குறிப்பிடத்தக்கது.
இந்த சம்பவங்கள், செயற்கை நுண்ணறிவின் வேகமான வளர்ச்சியுடன் சேர்ந்து வரும் ஆபத்துகளை உலகம் தீவிரமாக கவனிக்க வேண்டிய நிலையை உருவாக்கியுள்ளது. AI மீது முழுமையான கட்டுப்பாடுகள் மற்றும் நெறிமுறைகள் இல்லையெனில், எதிர்காலம் மனித சமூகத்திற்கு பெரிய சவாலாக மாறலாம் என்ற எச்சரிக்கையாக இவை பார்க்கப்படுகின்றன.



