உலகளாவிய இராஜதந்திர முறையை AI எவ்வாறு பாதிக்கிறது என்பது பற்றிய ஆய்வு இன்னும் மிகக் குறைவாகவே உள்ளது. தற்போது, ஒரு அதிபுத்திசாலித்தனமான AI என்ன செய்ய முடியும் என்பதை அறிய நமக்கு வழி இல்லை.
சக்திவாய்ந்த செயற்கை நுண்ணறிவை (AI) உருவாக்குவது குறித்து மக்கள் பெரும்பாலும் கவலைப்படுகிறார்கள். விஞ்ஞானிகள் எவ்வளவு விரைவில் செயற்கை பொது நுண்ணறிவை (artificial general intelligence (AGI)) உருவாக்குவார்கள் என்று சிலர் ஆச்சரியப்படுகிறார்கள். AGI என்பது மனிதர்களை விட சிறப்பாக பணிகளைச் செய்யக்கூடிய ஒரு வகை AI ஆகும். மேலும், அதனால் பயிற்சி அளிக்கப்படாத சிக்கல்களைத் தீர்க்க முடியும்.
பலர் AI மற்றும் அதன் வளர்ந்து வரும் திறன்களைப் பற்றிப் பேசுகிறார்கள். ஆனால், AI உலகளாவிய உத்தி மற்றும் பாதுகாப்பை எவ்வாறு பாதிக்கிறது என்பது குறித்த ஆராய்ச்சி இன்னும் மிகக் குறைவு. கூகிளின் முன்னாள் தலைமை நிர்வாக அதிகாரி எரிக் ஷ்மிட், டான் ஹென்ட்ரிக்ஸ் மற்றும் அலெக்ஸாண்ட்ரா வாங் (ஸ்கேல் AI-ன் தலைமை நிர்வாக அதிகாரி) ஆகியோரின் சமீபத்திய ஆய்வறிக்கை அதிக கவனத்தைப் பெற்றது. இருப்பினும், அவர்களின் பகுப்பாய்வின் சில பகுதிகள் போதுமான அளவு வலுவாக இல்லை.
கேள்விக்குள்ளாக்கப்பட வேண்டிய அம்சங்கள்
செயற்கை பொது நுண்ணறிவு (AGI) விரைவில் வருமா என்பது குறித்து மக்கள் உடன்படவில்லை. இருப்பினும், ஷ்மிட், ஹென்ட்ரிக்ஸ் மற்றும் வாங் ஒரு நல்ல கருத்தை முன்வைக்கின்றனர். AGI நடந்தால், நாடுகள் பாதுகாப்பு அபாயங்களையும் போட்டியையும் சமாளிக்கத் தயாராக இருக்க வேண்டும்.
ஆபத்தான AI தொழில்நுட்பங்கள் தவறான நபர்களிடம் முடிவடைவதைத் தடுப்பது முக்கியம் என்பதை RAND-ன் அவர்களின் ஆய்வறிக்கை பற்றிய கருத்து ஒப்புக்கொள்கிறது. இருப்பினும், இதைச் செய்வதற்கு ஆசிரியர்கள் பரிந்துரைக்கும் சில கருத்துக்கள் கேள்விக்குரியவை. மேலும், அவர்களின் முக்கிய வாதம் AI அணு ஆயுதங்களைப் போன்றது என்பதுதான்.
ஆசிரியர்கள் பரஸ்பர உறுதியளிக்கப்பட்ட AI செயலிழப்பு (Mutual Assured AI Malfunction (MAIM)) என்ற கருத்தை அறிமுகப்படுத்துகின்றனர். இது பனிப்போர் காலத்தில் வந்த பரஸ்பர உறுதியளிக்கப்பட்ட அழிவு (Mutual Assured Destruction (MAD)) என்ற கருத்தை ஒத்ததாகும். MAD என்பது ஒரு நாடு அணு ஆயுதங்களைப் பயன்படுத்தினால், மற்றொன்று சம சக்தியுடன் திருப்பித் தாக்கும். இது இரண்டையும் அழிக்க வழிவகுக்கும் என்பதாகும்.
இருப்பினும், இந்த ஒப்பீடு சரியானது அல்ல. MAD என்பது அணு ஆயுதங்களால் ஏற்படும் உண்மையான அழிவை உள்ளடக்கியது. மறுபுறம், MAIM என்பது மோசமான நபர்களை அபாயங்கள் குறித்து எச்சரிப்பதன் மூலம் சூப்பர் இன்டெலிஜென்ட் AI ஐ உருவாக்குவதிலிருந்து பயமுறுத்துவதாகும்.
இந்த ஒப்பீட்டைப் பயன்படுத்துவது ஆபத்தானதாக இருக்கலாம், ஏனெனில் இது AI கொள்கைகளை உருவாக்கும் போது நாடுகள் மோசமான முடிவுகளை எடுக்க வழிவகுக்கும்.
நாடுகள் ஒருவருக்கொருவர் தங்கள் செயற்கை நுண்ணறிவுத் திட்டங்களை, இயற்பியல் ஆயுதங்களை அழிப்பது போல அழித்துக் கொள்ளலாம் என்ற கருத்து சரியாக வேலை செய்யாது. ஏனென்றால், அணுசக்தித் திட்டங்களை விட செயற்கை நுண்ணறிவுத் திட்டங்கள் பரவலாக உள்ளன. ஒரே இடத்தில் மட்டுமல்ல, வெவ்வேறு இடங்களிலிருந்தும் பலர் அவற்றில் வேலை செய்கிறார்கள்.
ஒரு பயங்கரவாதக் குழுவின் அல்லது முரட்டுத்தனமான அரசின் திட்டத்தை அழிக்க முயற்சிப்பது எதிர்பாராத சிக்கல்களுக்கு வழிவகுக்கும். மோதலைத் தொடங்குவது போன்றவை. ஆபத்தான AI திட்டங்களை முன்கூட்டியே அழிப்பதை இந்த ஆய்வுக் கட்டுரை ஆதரிக்கிறது. ஆனால், நாடுகளிடம் சரியான தகவல் அல்லது உளவு பார்க்கும் திறன்கள் இல்லை. மேலும், மற்றவர்களை பயமுறுத்த MAIM (Make AI Misbehave) பயன்படுத்துவது அல்லது எதிரி தொழில்நுட்பத்தை நாசமாக்குவதை ஆதரிப்பது வெளிப்படையான இராணுவத் தாக்குதல்களைத் தொடங்குவதற்கான ஒரு காரணமாகக் கருதப்படலாம்.
சாத்தியமற்ற திட்டமா?
செறிவூட்டப்பட்ட யுரேனியம் போன்ற அணுசக்தி பொருட்களைப் பயன்படுத்துவது போல, AI சில்லுகளின் பரவலைக் கட்டுப்படுத்துவது போன்ற ஒரு துணிச்சலான யோசனையை ஆசிரியர்கள் பரிந்துரைக்கின்றனர். ஆனால் AI மற்றும் அணு தொழில்நுட்பம் மிகவும் வேறுபட்டவை என்பதால் இந்த யோசனை வேலை செய்யாது. ஒரு AI மாதிரி பயிற்சி பெற்றவுடன், அது தொடர்ந்து செயல்பட அதிக உடல் வளங்கள் தேவையில்லை. இது விநியோகச் சங்கிலி மூலம் கட்டுப்படுத்துவதை கடினமாக்குகிறது.
இந்த ஆய்வறிக்கை தெளிவாக விளக்கப்படாத சில அனுமானங்களையும் தர்க்கத்தில் தாவல்களையும் செய்கிறது. எடுத்துக்காட்டாக, அரசாங்கங்கள் முன்கூட்டியே செயல்படாவிட்டால் AI-இயங்கும் உயிரி ஆயுதங்கள் மற்றும் சைபர் தாக்குதல்கள் நிச்சயமாக நடக்கும் என்று ஆசிரியர்கள் நம்புகிறார்கள். ஆனால், AI அவ்வளவு ஆபத்தானதாக மாறும் என்பது உறுதியாகத் தெரியவில்லை. AI சைபர் தாக்குதல்களை எளிதாக்கக்கூடும் என்றாலும், அதை பேரழிவு ஆயுதமாகக் கருத வேண்டுமா என்பது தெளிவாகத் தெரியவில்லை. அரசாங்கங்கள் AI வளர்ச்சியை வழிநடத்தும் என்றும் ஆசிரியர்கள் கருதுகின்றனர். ஆனால், இது ஒரு யூகம் போல் தெரிகிறது. தற்போது, பெரும்பாலான AI ஆராய்ச்சிகள் தனியார் நிறுவனங்களால் வழிநடத்தப்படுகின்றன, பின்னர் அவர்கள் பாதுகாப்பு நோக்கங்களுக்காக அரசாங்கங்களுடன் தொழில்நுட்பத்தைப் பகிர்ந்து கொள்கிறார்கள்.
வேகமாக மாறிவரும் தொழில்நுட்பம் மற்றும் சூப்பர் இன்டெலிஜென்ஸின் சாத்தியமான அச்சுறுத்தலைக் கையாளும் கொள்கை வகுப்பாளர்கள் பழைய உத்திகளிலிருந்து விலகிச் செல்ல வேண்டும். தற்போதைய சவால்களைப் புரிந்துகொள்ள கடந்த கால சூழ்நிலைகளை ஒப்பிடுவது உதவியாக இருக்கும் என்றாலும், AI-க்காக இந்த ஒப்பீடுகளைப் பயன்படுத்துவது சரியானதல்ல. AI அணு தொழில்நுட்பத்திலிருந்து மிகவும் வேறுபட்ட வழிகளில் உருவாக்கப்பட்டது. பரப்பப்பட்டது மற்றும் பயன்படுத்தப்படுகிறது. அணு அச்சுறுத்தல்களுக்கு வேலை செய்யும் அதே தடுப்புகள் சூப்பர் இன்டெலிஜென்ட் AI-க்கும் வேலை செய்யும் என்று நினைப்பது தவறாக வழிநடத்தும்.
அதிக உதவித்தொகை தேவை
இராஜதந்திர விஷயங்களில் AI எவ்வாறு பொருந்துகிறது என்பதைப் புரிந்துகொள்ள நமக்கு சிறந்த வழிகள் தேவை. ஒரு யோசனை என்னவென்றால், பொது நோக்க தொழில்நுட்பம் (General Purpose Technology (GPT)) கட்டமைப்பைப் பயன்படுத்துவது. இது தொழில்நுட்பங்கள் பல்வேறு தொழில்களில் எவ்வாறு பரவுகின்றன மற்றும் ஒரு நாட்டின் அதிகாரத்திற்கு எவ்வாறு முக்கியம் என்பதை விளக்குகிறது. AI-ஐப் பார்ப்பதற்கு இது ஒரு நல்ல வழியாக இருக்கலாம். இருப்பினும், இப்போது, AI ஒரு "பொது" தொழில்நுட்பம் என்ற கருத்தை முழுமையாக பூர்த்தி செய்யவில்லை. ஏனெனில், பெரிய மொழி மாதிரிகள் (large language models (LLMs)) இன்னும் பெரிய வரம்புகளைக் கொண்டுள்ளன. மேலும், அவை பரவலாகப் பரவவில்லை அல்லது GPTகளுடன் பொருந்தக்கூடிய அளவுக்கு உருவாக்கப்படவில்லை.
எதிர்காலத்தில் சூப்பர் இன்டெலிஜென்ட் AI உண்மையானதாக மாறினால், நாடுகள் அதை நிர்வகிக்க உதவ, இராஜதந்திர விவகாரங்களில் AI பற்றிய கூடுதல் ஆராய்ச்சி அவசியம். இருப்பினும், இது நிகழும் நேரமும் சாத்தியக்கூறும் கொள்கைகளை வடிவமைப்பதில் முக்கியக் காரணிகளாகும். ஏனெனில், சூப்பர் இன்டெலிஜென்ட் AI என்ன செய்ய முடியும் என்பதை தற்போது நாம் கணிக்க முடியாது.
ஆத்யா மாதவன் தக்ஷஷிலா நிறுவனத்தில் ஆராய்ச்சி ஆய்வாளர்.