ஜனநாயகம் முதல் ஆயுதப் போட்டிக்கான சாத்தியம் வரை, செயற்கை நுண்ணறிவு கணிசமான அபாயங்களை முன்வைக்கிறது. மனித குலத்தின் நலனுடன் அதன் முன்னேற்றம் சீரமைக்கப்படுவதை உறுதிசெய்ய, செயற்கை நுண்ணறிவுக்கான ஒரு வலுவான உலகளாவிய நிர்வாக அமைப்பு (global governance body) அவசரமாக தேவைப்படுகிறது.
ஐசக் அசிமோவ் (Isaac Asimov) 1950 ஆம் ஆண்டில் ரோபோக்கள் மற்றும் செயற்கை நுண்ணறிவின் நெறிமுறை சிக்கல்களை ஆராய்ந்து "I, Robot" என்ற புத்தகத்தை எழுதினார். ரோபாட்டிக்ஸின் மூன்று விதிகளைப் பின்பற்றும் ரோபோக்களைப் பற்றிய கதைகளை இந்த புத்தகம் சொல்கிறது. செயற்கை நுண்ணறிவை பாதுகாப்பானதாகவும் மனித மதிப்புகளுடன் சீரமைப்பதிலும் உள்ள சவால்களைக் காட்டுகிறது. இந்த விதிகளுக்கு எவ்வாறு வரம்புகள் உள்ளன என்பதை ஐசக் அசிமோவ் காட்டுகிறார். மேலும் செயற்கை நுண்ணறிவு எதிர்பாராத வழிகளில் செயல்பட முடியும், அவர் சொல்வது போல், "நீங்கள் ஒரு ரோபோவுடன் வாதிட முடியாது. ரோபோக்கள் மிகவும் பகுத்தறிவாளர்கள். மனித நலன்களுக்கு எதிராக செயல்படும் செயற்கை நுண்ணறிவு பற்றிய கவலைகளை பிரதிபலிக்கிறது. "I, Robot," ஒரு கற்பனையான படைப்பாக இருக்கும்போது, செயற்கை நுண்ணறிவு வளர்ச்சியில் நெறிமுறை தரநிலைகள் மற்றும் பாதுகாப்பு நடவடிக்கைகளின் (ethical standards and security measures) முக்கியத்துவத்தை முன்னறிவிக்கிறது. செயற்கை நுண்ணறிவு தேசிய இறையாண்மைக்கு ஆபத்தை ஏற்படுத்துவதைத் தடுக்க வேண்டியதன் அவசியத்தை இது வலியுறுத்துகிறது.
அல்காரிதம்கள் (algorithms) நாடுகளைப் பற்றியோ அல்லது எது சரி அல்லது தவறு என்பதைப் பற்றியோ கவலைப்படுவதில்லை. எனவே, பெரிய சவால் என்பது செயற்கை நுண்ணறிவை உருவாக்குவது மட்டுமல்ல, அது மக்களுக்கு உதவுவதுடன், தீங்கு விளைவிக்காது என்பதை உறுதிப்படுத்த விதிகளை உருவாக்குகிறது. செயற்கை நுண்ணறிவுக்கான உலகளாவிய விதிகள் மற்றும் உள்ளூர் சட்டங்கள் இல்லாமல், நாடுகள் தங்கள் பாதுகாப்பு மற்றும் சுதந்திரத்திற்கு நான்கு முக்கிய அபாயங்களை எதிர்கொள்கின்றன.
முதலாவதாக, செயற்கை நுண்ணறிவானது அரசுகள், தனியார் தொழில்நுட்ப நிறுவனங்கள் மற்றும் தனிநபர்களிடையே அதிகார இயக்கவியலை சீர்குலைத்து, இறையாண்மையின் வழக்கமான கருத்துக்களை மாற்றுகிறது. செயற்கை நுண்ணறிவு அமைப்புகளின் அதிகரித்துவரும் தன்னாட்சியானது பாரம்பரிய சட்டங்கள் அல்லது மாநில அதிகார வரம்பிலிருந்து தப்பிக்கும் புதிய டிஜிட்டல் மண்டலங்களை நிறுவுகிறது. குறியீடு மற்றும் தரவுகளால் வகைப்படுத்தப்படும் இந்த டிஜிட்டல் இடைவெளிகள், செயற்கை நுண்ணறிவு அமைப்புகளுக்கு கட்டளையிடுபவர்களால் செல்வாக்கு செலுத்தப்படும், வளர்ந்து வரும் இறையாண்மையின் புதிய வடிவங்களாகக் காணலாம்.
செயற்கை நுண்ணறிவின் தொடக்கம் டிஜிட்டல் இறையாண்மையின் (digital sovereignty) புதிய யுக்தியை துவக்கியுள்ளது. இது, பிராந்திய இறையாண்மையின் பாரம்பரிய கருத்தை அடிப்படையில் மாற்றியுள்ளது. இந்த மாற்றம், நாடுகள் தங்கள் டிஜிட்டல் பகுதிகள் மற்றும் செயற்கை நுண்ணறிவு தொழில்நுட்பங்களை எவ்வாறு நிர்வகிக்கிறது என்பதற்கான தாக்கங்களைக் கொண்டுள்ளது. குறைந்த வளர்ச்சியடைந்த செயற்கை நுண்ணறிவு திறன்கள் மற்றும் ஒழுங்குமுறைகளைக் கொண்ட நாடுகள் மிகவும் முன்னேறிய நாடுகளைச் சார்ந்து இருக்கலாம். பாதுகாப்பு, உள்கட்டமைப்பு மற்றும் சுகாதாரம் போன்ற முக்கியமான துறைகளில் தங்கள் இறையாண்மையை சமரசம் செய்யலாம். மேலும், செயற்கை நுண்ணறிவின் ஏற்றம், இந்த டிஜிட்டல் இடங்களின் மீது அதிகாரத்தை வைத்திருக்கும் தனியார் தொழில்நுட்ப நிறுவனங்கள் மற்றும் தனிநபர்களுக்கு மாநிலங்களிலிருந்து அதிகாரத்தை மாற்றுகிறது. இந்த நிறுவனங்களுக்கு பாரம்பரிய இறையாண்மை இல்லை என்றாலும், அவற்றின் செல்வாக்கு மாநில அதிகாரத்திற்கு ஒரு சவாலாக உள்ளது மற்றும் உலகளாவிய அரசியல் இயக்கவியலை மறுவடிவமைக்கும் திறனைக் கொண்டுள்ளது
இரண்டாவதாக, குறிப்பாக வெளிநாட்டு நிறுவனங்களால் பணியமர்த்தப்படும் போது, செயற்கை நுண்ணறிவானது ஜனநாயகத்தை ஆழமாக பாதிக்கும் திறனைக் கொண்டுள்ளது. ஜனநாயக சமூகங்களில் ஒரு முக்கிய அங்கமான, தகவல்களைக் கையாளவும், பொதுக் கருத்தை வடிவமைக்கவும் இது பயன்படுத்தப்படலாம். எடுத்துக்காட்டாக, செயற்கை நுண்ணறிவானது பெரிய அளவில் தவறான தகவல்களையும் உருவாக்கும் திறனைக் கொண்டுள்ளது. இது பதட்டங்கள், தேர்தல் மோதல்கள் மற்றும் வன்முறைக்கு வழிவகுக்கும். இந்த செயற்கை நுண்ணறிவு உருவாக்கிய தவறான தகவல், பொதுமக்களின் உணர்வை உண்மையாகப் பிரதிபலிக்காத கருத்துக்களைப் பிரச்சாரம் செய்யலாம். அதன் மூலம் ஜனநாயக செயல்முறையை எதிர்மறையாக பாதிக்கும்.
மேலும், வெளிநாட்டு அதிகார சக்திகள் மிகவும் அதிநவீன மற்றும் குறைவான கண்டறியக்கூடிய செல்வாக்கு பிரச்சாரங்களுக்கு செயற்கை நுண்ணறிவைப் பயன்படுத்தலாம். இந்த பிரச்சாரங்கள் சமூகங்களுக்குள் பிளவுகளை தீவிரப்படுத்தலாம், புறநிலை உண்மையின் இருப்பு பற்றிய சந்தேகத்தை வளர்க்கலாம் மற்றும் உள்ளிருந்து ஜனநாயக அமைப்புகளை பலவீனப்படுத்தலாம். செயற்கை நுண்ணறிவு தொழில்நுட்பம் முன்னேறும்போது, அது சர்வாதிகார ஆட்சிகள், பயங்கரவாத குழுக்கள் மற்றும் ஒழுங்கமைக்கப்பட்ட குற்றக் குழுக்களால் சுரண்டப்படும் அபாயம் உள்ளது. இது குறிப்பிடத்தக்க தீங்கு விளைவிக்கும்.
மூன்றாவதாக, விஷயத்தை மீண்டும் வலியுறுத்தும் வகையில், "கொலையாளி ரோபோக்கள்" (killer robots) என்று பொதுவாக அறியப்படும் ஆபத்தான தன்னாட்சி ஆயுத அமைப்புகள் (Lethal Autonomous Weapons Systems (LAWS)), தேசிய பாதுகாப்பு மற்றும் இறையாண்மைக்கு ஒரு குறிப்பிடத்தக்க அச்சுறுத்தலை ஏற்படுத்துகின்றன. இது முக்கியமான நெறிமுறை மற்றும் தொழில்நுட்ப சவால்களை முன்வைக்கிறது. இந்த ரோபோக்கள் எந்த மனித கட்டுப்பாடும் இல்லாமல் இலக்குகளை கண்டுபிடித்து தாக்க முடியும். இதனால், மோதல்களை மோசமாக்கும், ஏனெனில் இந்த ரோபோக்கள் நிலைமையைப் புரிந்து கொள்ளாமல் தவறுகளைச் செய்யக்கூடும். மேலும், தொழில்நுட்ப ரீதியாக, ஆபத்தான தன்னாட்சி ஆயுத அமைப்புகள் (LAWS), அதிநவீன செயற்கை நுண்ணறிவு அல்காரிதம்களைக் (AI algorithms) கொண்டுள்ளது. மனித தலையீடு இல்லாமல் இலக்குகளைத் தன்னாட்சி முறையில் தேடவும், அடையாளம் காணவும் மற்றும் ஈடுபடவும் முடியும். இந்த திறன் இராணுவ மோதல்களில் திட்டமிடப்படாத சில அபாயத்தை எழுப்புகிறது. ஏனெனில் இந்த அமைப்புகள் முன் திட்டமிடப்பட்ட அளவுகோல்களின் மனித தீர்ப்பு மற்றும் சூழல் விழிப்புணர்வு இல்லாததன் அடிப்படையில் செயல்படலாம். இது கண்மூடித்தனமான அல்லது தவறான இலக்குக்கு வழிவகுக்கும். மேலும், இந்த அமைப்புகளை ஹேக்கிங் அல்லது செயலிழக்கச் செய்யும் ஆபத்து தேசிய பாதுகாப்பைக் குறைமதிப்பிற்கு உட்படுத்தும் பேரழிவுக்கான அச்சுறுத்தலை ஏற்படுத்துகிறது.
நெறிமுறை ரீதியாக, சட்டத்தின் அடிப்படையில் வரிசைப்படுத்தல் மனிதாபிமான சட்டம் மற்றும் பொறுப்பின் அடிப்படைக் கொள்கைகளுக்கு சவாலாக உள்ளது. வாழ்க்கை மற்றும் இறப்பு பற்றிய முடிவெடுக்கும் செயல்பாட்டில் மனிதனின் மேற்பார்வை இல்லாதது பொறுப்பு வகிப்பதைப் பற்றிய குறிப்பிடத்தக்க தார்மீக கேள்விகளை எழுப்புகிறது. சர்வதேச மனிதாபிமான சட்டத்தின் (international humanitarian law) அடிப்படை அம்சமான வேறுபாட்டான கொள்கைக்கு போராளிகள் மற்றும் போராளிகள் அல்லாதவர்கள் இடையே வேறுபாடு தேவைப்படுகிறது. இங்கு சட்டங்கள் முடிவெடுப்பதற்கான வழிமுறைகளைச் சார்ந்துள்ளது. இந்த அடிப்படை வேறுபாடுகளைச் செய்வதற்குத் தேவையான நுணுக்கமான புரிதல் இல்லாமல் இருக்கலாம், ஆனால், பொதுமக்களின் உயிர்களுக்கு ஆபத்தை ஏற்படுத்தவும் மற்றும் சர்வதேச விதிமுறைகளை மீறவும் செய்யலாம்.
ஆபத்தான தன்னாட்சி ஆயுத அமைப்புகளின் (LAWS) பெருக்கம் ஒரு ஆயுதப் போட்டியைத் தூண்டி, சர்வதேச அமைதி மற்றும் பாதுகாப்பை சீர்குலைக்கும். இந்த ஆயுதங்கள் அணுகக்கூடியதாக மாறும்போது, மோதல்களில் ஈடுபடுவதற்கான வரம்பு குறைகிறது, இது போரை அதிகரிக்க வழிவகுக்கும் மற்றும் தேசிய இறையாண்மையை குறைமதிப்பிற்கு உட்படுத்தும். ஆபத்தான தன்னாட்சி ஆயுத அமைப்புகள் (LAWS) மீதான கட்டுப்பாடு மற்றும் கட்டுப்பாடு இல்லாதது உலகளாவிய ஒழுங்குக்கு அச்சுறுத்தலாக உள்ளது. பயங்கரவாதம் அல்லது கிளர்ச்சிக்காக இந்த அமைப்புகளை அரசு சாரா நிறுவனங்கள் பெற்று பயன்படுத்தலாம். இந்த சுயாட்சி தடுப்புக் கோட்பாட்டிற்கு (challenges deterrence theory) சவால் விடுகிறது. இது பகுத்தறிவுள்ள மனிதர்களைச் சார்ந்து சமநிலையை பராமரிக்கவும். பழிவாங்கும் பயத்தின் மூலம் மோதலைத் தடுக்கவும் செய்கிறது. ஆபத்தான தன்னாட்சி ஆயுத அமைப்பின் (LAWS) கணிக்க முடியாத தன்மை இந்த சமநிலையை சீர்குலைக்கிறது. இதன் விளைவாக கட்டுப்பாடற்ற அதிகரிப்புகள் ஏற்படலாம். மேலும், தன்னாட்சி ஆயுத தொழில்நுட்பத்தில் ஆயுதப் போட்டியின் சாத்தியம் உலகளாவிய நிலைத்தன்மையை பாதிக்கிறது. ஏனெனில் நாடுகள் இராஜதந்திர சமநிலையை விட தொழில்நுட்ப முன்னேற்றத்திற்கு முன்னுரிமை அளிக்கின்றன.
நான்காவதாக, இணைய பாதுகாப்பில் செயற்கை நுண்ணறிவின் ஒருங்கிணைப்பு இரட்டை தாக்கத்தை ஏற்படுத்துகிறது. இது, வாய்ப்புகள் மற்றும் அச்சுறுத்தல்களை ஏற்படுத்துகிறது. ஒருபுறம், மேம்பட்ட தொடர்ச்சியான அச்சுறுத்தல்கள் மற்றும் ஈட்டி தூண்டில் (threats and spear phishing) போன்ற செயற்கை நுண்ணறிவால் மேம்படுத்தப்பட்ட முறைகள் அதிநவீன சைபர் தாக்குதல்களுக்கு வழிவகுக்கும். இது, தேசிய பாதுகாப்பு மற்றும் இறையாண்மையை நேரடியாக பாதிக்கும். இந்தத் தாக்குதல்கள் முக்கியமான தேசிய உள்கட்டமைப்புகளை ஊடுருவி சீர்குலைத்து, ஒரு நாட்டின் நிலைத்தன்மையையும் செயல்பாட்டையும் குறைமதிப்பிற்கு உட்படுத்தும் திறனைக் கொண்டுள்ளன. இந்த இடையூறுகள் உடனடி பாதுகாப்பு அபாயங்களை வழங்குவதோடு மட்டுமல்லாமல், நாடுகளின் பொருளாதார மற்றும் சமூக நலனையும் பாதிக்கின்றன. அச்சுறுத்தல்கள் நாட்டின் எல்லைகளுக்கு அப்பால் விரிவடைகின்றன. ஏனெனில் இணையத் தாக்குதலானது எந்த இடத்திலிருந்தும் தோன்றலாம். இது ஒன்றோடொன்று இணைக்கப்பட்ட டிஜிட்டல் உலகில் தேசிய நலன்களைப் பாதுகாப்பதை சவாலாக ஆக்குவதுடன் இதில், தேசிய பாதுகாப்பிற்கான தாக்கங்கள் குறிப்பிடத்தக்கவை. நாடுகள் தங்கள் இணைய பாதுகாப்பு உத்திகளை மறுமதிப்பீடு செய்து மேம்பட்ட பாதுகாப்புகளில் முதலீடு செய்ய வேண்டும். இந்த செயற்கை நுண்ணறிவு மேம்படுத்தப்பட்ட அச்சுறுத்தல்களுக்கு எதிராகப் பாதுகாப்பது, தேசிய இறையாண்மையைப் பாதுகாப்பதற்கு முக்கியமானது ஆகும். நாடுகள் அவற்றின் முக்கியமான உள்கட்டமைப்பு, தகவல் அமைப்புகள் மற்றும் ஜனநாயக செயல்முறைகள் ஆகியவற்றின் மீது கட்டுப்பாட்டை வைத்திருப்பதை உறுதிசெய்கிறது.
இந்த சிக்கல்களைக் கருத்தில் கொண்டு, செயற்கை நுண்ணறிவைக் கட்டுப்படுத்த நமக்கு ஒரு வலுவான உலகளாவிய நிர்வாக அமைப்பு தேவை என்பது தெளிவாகிறது. இந்த அமைப்பு செயற்கை நுண்ணறிவின் முன்னேற்றங்கள் மனிதகுலத்தின் பரந்த நலன்களை எதிர் நோக்காமல் முன்னுரிமை அளிப்பதை உறுதி செய்ய இத்தகைய அமைப்பு அவசியம்.கூடுதலாக, இறையாண்மை மற்றும் தேசிய பாதுகாப்பிற்கு செயற்கை நுண்ணறிவால் ஏற்படும் தனித்துவமான அச்சுறுத்தல்களை நிவர்த்தி செய்ய, குறிப்பாக வடிவமைக்கப்பட்ட தேசிய அளவிலான ஒழுங்குமுறைகளை உருவாக்குவதற்கான முக்கியமான தேவை உள்ளது.
தேப்ராய், பிரதமரின் ஆராய்ச்சி, பொருளாதார ஆலோசனைக் குழுவின் தலைவராகவும், சின்ஹா சிறப்புப் பணி அதிகாரியாகவும் உள்ளனர்.