இராஜதந்திர விவகாரங்கள் மற்றும் செயற்கை நுண்ணறிவுக் காரணி பற்றிய ஒரு நெருக்கமான பார்வை -ஆத்யா மாதவன்

 உலகளாவிய இராஜதந்திர முறையை AI எவ்வாறு பாதிக்கிறது என்பது பற்றிய ஆய்வு இன்னும் மிகக் குறைவாகவே உள்ளது. தற்போது, ​​ஒரு அதிபுத்திசாலித்தனமான AI என்ன செய்ய முடியும் என்பதை அறிய நமக்கு வழி இல்லை.


சக்திவாய்ந்த செயற்கை நுண்ணறிவை (AI) உருவாக்குவது குறித்து மக்கள் பெரும்பாலும் கவலைப்படுகிறார்கள். விஞ்ஞானிகள் எவ்வளவு விரைவில் செயற்கை பொது நுண்ணறிவை (artificial general intelligence (AGI)) உருவாக்குவார்கள் என்று சிலர் ஆச்சரியப்படுகிறார்கள். AGI என்பது மனிதர்களை விட சிறப்பாக பணிகளைச் செய்யக்கூடிய ஒரு வகை AI ஆகும். மேலும், அதனால் பயிற்சி அளிக்கப்படாத சிக்கல்களைத் தீர்க்க முடியும்.


பலர் AI மற்றும் அதன் வளர்ந்து வரும் திறன்களைப் பற்றிப் பேசுகிறார்கள். ஆனால், AI உலகளாவிய உத்தி மற்றும் பாதுகாப்பை எவ்வாறு பாதிக்கிறது என்பது குறித்த ஆராய்ச்சி இன்னும் மிகக் குறைவு. கூகிளின் முன்னாள் தலைமை நிர்வாக அதிகாரி எரிக் ஷ்மிட், டான் ஹென்ட்ரிக்ஸ் மற்றும் அலெக்ஸாண்ட்ரா வாங் (ஸ்கேல் AI-ன் தலைமை நிர்வாக அதிகாரி) ஆகியோரின் சமீபத்திய ஆய்வறிக்கை அதிக கவனத்தைப் பெற்றது. இருப்பினும், அவர்களின் பகுப்பாய்வின் சில பகுதிகள் போதுமான அளவு வலுவாக இல்லை.


கேள்விக்குள்ளாக்கப்பட வேண்டிய அம்சங்கள் 


செயற்கை பொது நுண்ணறிவு (AGI) விரைவில் வருமா என்பது குறித்து மக்கள் உடன்படவில்லை. இருப்பினும், ஷ்மிட், ஹென்ட்ரிக்ஸ் மற்றும் வாங் ஒரு நல்ல கருத்தை முன்வைக்கின்றனர். AGI நடந்தால், நாடுகள் பாதுகாப்பு அபாயங்களையும் போட்டியையும் சமாளிக்கத் தயாராக இருக்க வேண்டும்.


ஆபத்தான AI தொழில்நுட்பங்கள் தவறான நபர்களிடம் முடிவடைவதைத் தடுப்பது முக்கியம் என்பதை RAND-ன் அவர்களின் ஆய்வறிக்கை பற்றிய கருத்து ஒப்புக்கொள்கிறது. இருப்பினும், இதைச் செய்வதற்கு ஆசிரியர்கள் பரிந்துரைக்கும் சில கருத்துக்கள் கேள்விக்குரியவை. மேலும், அவர்களின் முக்கிய வாதம் AI அணு ஆயுதங்களைப் போன்றது என்பதுதான்.


ஆசிரியர்கள் பரஸ்பர உறுதியளிக்கப்பட்ட AI செயலிழப்பு (Mutual Assured AI Malfunction (MAIM)) என்ற கருத்தை அறிமுகப்படுத்துகின்றனர். இது பனிப்போர் காலத்தில் வந்த பரஸ்பர உறுதியளிக்கப்பட்ட அழிவு (Mutual Assured Destruction (MAD)) என்ற கருத்தை ஒத்ததாகும். MAD என்பது ஒரு நாடு அணு ஆயுதங்களைப் பயன்படுத்தினால், மற்றொன்று சம சக்தியுடன் திருப்பித் தாக்கும். இது இரண்டையும் அழிக்க வழிவகுக்கும் என்பதாகும்.


இருப்பினும், இந்த ஒப்பீடு சரியானது அல்ல. MAD என்பது அணு ஆயுதங்களால் ஏற்படும் உண்மையான அழிவை உள்ளடக்கியது. மறுபுறம், MAIM என்பது மோசமான நபர்களை அபாயங்கள் குறித்து எச்சரிப்பதன் மூலம் சூப்பர் இன்டெலிஜென்ட் AI ஐ உருவாக்குவதிலிருந்து பயமுறுத்துவதாகும்.


இந்த ஒப்பீட்டைப் பயன்படுத்துவது ஆபத்தானதாக இருக்கலாம், ஏனெனில் இது AI கொள்கைகளை உருவாக்கும் போது நாடுகள் மோசமான முடிவுகளை எடுக்க வழிவகுக்கும்.


நாடுகள் ஒருவருக்கொருவர் தங்கள் செயற்கை நுண்ணறிவுத் திட்டங்களை, இயற்பியல் ஆயுதங்களை அழிப்பது போல அழித்துக் கொள்ளலாம் என்ற கருத்து சரியாக வேலை செய்யாது. ஏனென்றால், அணுசக்தித் திட்டங்களை விட செயற்கை நுண்ணறிவுத் திட்டங்கள் பரவலாக உள்ளன. ஒரே இடத்தில் மட்டுமல்ல, வெவ்வேறு இடங்களிலிருந்தும் பலர் அவற்றில் வேலை செய்கிறார்கள்.


ஒரு பயங்கரவாதக் குழுவின் அல்லது முரட்டுத்தனமான அரசின் திட்டத்தை அழிக்க முயற்சிப்பது எதிர்பாராத சிக்கல்களுக்கு வழிவகுக்கும். மோதலைத் தொடங்குவது போன்றவை. ஆபத்தான AI திட்டங்களை முன்கூட்டியே அழிப்பதை இந்த ஆய்வுக் கட்டுரை ஆதரிக்கிறது. ஆனால், நாடுகளிடம் சரியான தகவல் அல்லது உளவு பார்க்கும் திறன்கள் இல்லை. மேலும், மற்றவர்களை பயமுறுத்த MAIM (Make AI Misbehave) பயன்படுத்துவது அல்லது எதிரி தொழில்நுட்பத்தை நாசமாக்குவதை ஆதரிப்பது வெளிப்படையான இராணுவத் தாக்குதல்களைத் தொடங்குவதற்கான ஒரு காரணமாகக் கருதப்படலாம்.


சாத்தியமற்ற திட்டமா?


செறிவூட்டப்பட்ட யுரேனியம் போன்ற அணுசக்தி பொருட்களைப் பயன்படுத்துவது போல, AI சில்லுகளின் பரவலைக் கட்டுப்படுத்துவது போன்ற ஒரு துணிச்சலான யோசனையை ஆசிரியர்கள் பரிந்துரைக்கின்றனர். ஆனால் AI மற்றும் அணு தொழில்நுட்பம் மிகவும் வேறுபட்டவை என்பதால் இந்த யோசனை வேலை செய்யாது. ஒரு AI மாதிரி பயிற்சி பெற்றவுடன், அது தொடர்ந்து செயல்பட அதிக உடல் வளங்கள் தேவையில்லை. இது விநியோகச் சங்கிலி மூலம் கட்டுப்படுத்துவதை கடினமாக்குகிறது.


இந்த ஆய்வறிக்கை தெளிவாக விளக்கப்படாத சில அனுமானங்களையும் தர்க்கத்தில் தாவல்களையும் செய்கிறது. எடுத்துக்காட்டாக, அரசாங்கங்கள் முன்கூட்டியே செயல்படாவிட்டால் AI-இயங்கும் உயிரி ஆயுதங்கள் மற்றும் சைபர் தாக்குதல்கள் நிச்சயமாக நடக்கும் என்று ஆசிரியர்கள் நம்புகிறார்கள். ஆனால், AI அவ்வளவு ஆபத்தானதாக மாறும் என்பது உறுதியாகத் தெரியவில்லை. AI சைபர் தாக்குதல்களை எளிதாக்கக்கூடும் என்றாலும், அதை பேரழிவு ஆயுதமாகக் கருத வேண்டுமா என்பது தெளிவாகத் தெரியவில்லை. அரசாங்கங்கள் AI வளர்ச்சியை வழிநடத்தும் என்றும் ஆசிரியர்கள் கருதுகின்றனர். ஆனால், இது ஒரு யூகம் போல் தெரிகிறது. தற்போது, ​​பெரும்பாலான AI ஆராய்ச்சிகள் தனியார் நிறுவனங்களால் வழிநடத்தப்படுகின்றன, பின்னர் அவர்கள் பாதுகாப்பு நோக்கங்களுக்காக அரசாங்கங்களுடன் தொழில்நுட்பத்தைப் பகிர்ந்து கொள்கிறார்கள்.


வேகமாக மாறிவரும் தொழில்நுட்பம் மற்றும் சூப்பர் இன்டெலிஜென்ஸின் சாத்தியமான அச்சுறுத்தலைக் கையாளும் கொள்கை வகுப்பாளர்கள் பழைய உத்திகளிலிருந்து விலகிச் செல்ல வேண்டும். தற்போதைய சவால்களைப் புரிந்துகொள்ள கடந்த கால சூழ்நிலைகளை ஒப்பிடுவது உதவியாக இருக்கும் என்றாலும், AI-க்காக இந்த ஒப்பீடுகளைப் பயன்படுத்துவது சரியானதல்ல. AI அணு தொழில்நுட்பத்திலிருந்து மிகவும் வேறுபட்ட வழிகளில் உருவாக்கப்பட்டது. பரப்பப்பட்டது மற்றும் பயன்படுத்தப்படுகிறது. அணு அச்சுறுத்தல்களுக்கு வேலை செய்யும் அதே தடுப்புகள் சூப்பர் இன்டெலிஜென்ட் AI-க்கும் வேலை செய்யும் என்று நினைப்பது தவறாக வழிநடத்தும்.


அதிக உதவித்தொகை தேவை


இராஜதந்திர விஷயங்களில் AI எவ்வாறு பொருந்துகிறது என்பதைப் புரிந்துகொள்ள நமக்கு சிறந்த வழிகள் தேவை. ஒரு யோசனை என்னவென்றால், பொது நோக்க தொழில்நுட்பம் (General Purpose Technology (GPT)) கட்டமைப்பைப் பயன்படுத்துவது. இது தொழில்நுட்பங்கள் பல்வேறு தொழில்களில் எவ்வாறு பரவுகின்றன மற்றும் ஒரு நாட்டின் அதிகாரத்திற்கு எவ்வாறு முக்கியம் என்பதை விளக்குகிறது. AI-ஐப் பார்ப்பதற்கு இது ஒரு நல்ல வழியாக இருக்கலாம்.  இருப்பினும், இப்போது, ​​AI ஒரு "பொது" தொழில்நுட்பம் என்ற கருத்தை முழுமையாக பூர்த்தி செய்யவில்லை. ஏனெனில், பெரிய மொழி மாதிரிகள் (large language models (LLMs)) இன்னும் பெரிய வரம்புகளைக் கொண்டுள்ளன. மேலும், அவை பரவலாகப் பரவவில்லை அல்லது GPTகளுடன் பொருந்தக்கூடிய அளவுக்கு உருவாக்கப்படவில்லை.


எதிர்காலத்தில் சூப்பர் இன்டெலிஜென்ட் AI உண்மையானதாக மாறினால், நாடுகள் அதை நிர்வகிக்க உதவ, இராஜதந்திர விவகாரங்களில் AI பற்றிய கூடுதல் ஆராய்ச்சி அவசியம். இருப்பினும், இது நிகழும் நேரமும் சாத்தியக்கூறும் கொள்கைகளை வடிவமைப்பதில் முக்கியக் காரணிகளாகும். ஏனெனில், சூப்பர் இன்டெலிஜென்ட் AI என்ன செய்ய முடியும் என்பதை தற்போது நாம் கணிக்க முடியாது.


ஆத்யா மாதவன் தக்ஷஷிலா நிறுவனத்தில் ஆராய்ச்சி ஆய்வாளர்.


Original article:
Share: