தவறான தகவல், தவறான தகவல் மற்றும் வெறுப்பு பேச்சு ஆகியவை தற்போது பரவலாக உள்ளன. உண்மை மற்றும் பொறுப்புடைமையை உறுதி செய்வதற்காக நிர்வாகம் மற்றும் வளர்ச்சியில் இந்தப் பிரச்சனைகளை எப்படி கையாள்வது என்பதுதான் முக்கிய கவலை.
கடுமையான உலகளாவிய போட்டி உள்ள உலகில், பிராந்திய போர்கள், உள்நாட்டு மோதல்கள் மற்றும் மனிதனால் ஏற்படும் பாதிப்புகள் போன்ற 2023-ல் விட்டுச் சென்ற பிரச்சனைகளை நாம் புரிந்து கொள்ளும்போது, உலகெங்கிலும் உள்ள தொழில்நுட்ப வல்லுநர்கள், சுற்றுச்சூழல் வல்லுநர்கள் மற்றும் அதிகாரத்துவவாதிகள் எதிர்காலத்திற்கான மனித உரிமைகளை மேம்படுத்துவதற்கான முயற்சிகளை அமைதியாகத் தொடங்குகின்றனர்.
அக்டோபர் 2023 தொடக்கத்தில், ஐக்கிய நாடுகளின் குழந்தைகள் நிதியத்தின் (United Nations Children’s Fund (UNICEF)) கூட்டு அமர்வில், திட்டங்களுக்கான உயர்நிலைக் குழு மற்றும் மேலாண்மைக்கான உயர்மட்டக் குழு, செயற்கை நுண்ணறிவு மற்றும் அதுதொடர்புடைய தொழில்நுட்பங்களின் பயன்பாடு மற்றும் நிர்வாகத்தைப் பற்றி விவாதித்தன. செயற்கை நுண்ணறிவு திறன் மேம்பாட்டிற்கான ஒரு ராஜதந்திர அணுகுமுறை மற்றும் வரைபடத்தை உருவாக்கி 2019 ஆம் ஆண்டு முதல் இந்த தொழில்நுட்பங்களில் பணிபுரிய ஐக்கிய நாடுகளவை தொடங்கிவிட்டது. ஐநா அமைப்பில் நெறிமுறை செயற்கை நுண்ணறிவு பயன்பாட்டிற்கான கோட்பாடுகள், மனித உரிமைகள், சூழலியல் நிலைத்தன்மை, பன்முகத்தன்மை மற்றும் உள்ளடக்கிய தன்மை ஆகியவற்றை மதிப்பது போன்ற மதிப்புகளை வலியுறுத்தும் யுனெஸ்கோ பிரகடனத்தில் கோடிட்டுக் காட்டப்பட்டுள்ளன. இந்த நெறிமுறைக் கொள்கைகளின் அடிப்படையில் ஐநா அமைப்பில் செயற்கை நுண்ணறிவு பயன்பாடு பற்றிய விரிவான கட்டமைப்பிற்கு ஒரு பரிந்துரை செய்யப்பட்டது.
செயற்கை நுண்ணறிவின் மனித இயல்புகளைப் போன்ற (humanistic) எதிர்கால வளர்ச்சி மற்றும் பயன்பாட்டில் கவனம் செலுத்துவது முக்கியம் என்றாலும், "டிஜிட்டல் இறையாண்மை" (digital sovereignty) மற்றும் டிஜிட்டல் இராஜதந்திரத்தின் பங்கு பற்றிய விவாதங்களை புறக்கணிப்பது நம்பத்தகாததாக இருக்கும். பிராந்திய இறையாண்மையின் கருத்து படிப்படியாக டிஜிட்டல் இறையாண்மையாக மாறுகிறது. மேலும் எல்லைகளைத் தாண்டி செயற்கை நுண்ணறிவின் நிர்வாகமானது கார்ப்பரேட் நிர்வாகத்திற்கு மையமானது. நாடுகளின் மீதான இறையாண்மையானது பரந்த அளவிலான வகைப்படுத்தப்பட்ட தரவுகளின் மீதான கட்டுப்பாட்டாக உருவாகி வருகிறது. மேலும் தவறான தகவல், மற்றும் வெறுப்புப் பேச்சு ஆகியவை இன்றைய பிரச்சனைகாளாகும். உண்மை மற்றும் பொறுப்புணர்வை உறுதிப்படுத்தும் வகையில், ஆட்சி மற்றும் வளர்ச்சியில் இந்த தீமைகளை எவ்வாறு தடுப்பது என்பதுதான் இப்போது பெரும் கேள்வியாக உள்ளது.
யேல் ஜர்னல் ஆஃப் லா அண்ட் டெக்னாலஜி (Yale Journal of Law and Technology) -யில் 2019 ஆம் ஆண்டு ஒரு கட்டுரையில், கார்ல் மன்ஹெய்ம் மற்றும் லிரிக் கப்லான் (Karl Manheim and Lyric Kaplan) செயற்கை நுண்ணறிவு கருவிகளின் அதிகரிப்பு மற்றும் பயன்பாடு தொடர்புடைய அச்சுறுத்தல்கள் குறித்து விவாதித்தனர். இந்த அச்சுறுத்தல்களில் ஜனநாயகத்தின் அம்சங்களை கையாளுதல் மற்றும் முடிவெடுக்கும் மற்றும் தகவல் தனியுரிமையை சமரசம் செய்வது ஆகியவை அடங்கும். செயற்கை நுண்ணறிவானது பிக் டேட்டா அனலிட்டிக்ஸ் (Big Data Analytics) மற்றும் இன்டர்நெட் ஆஃப் திங்ஸ் (Internet of Things) உடன் நெருக்கமாகப் பிணைக்கப்பட்டுள்ளது, மேலும் நுகர்வோருக்கு சில நன்மைகள் இருந்தாலும், அதன் முக்கிய பங்கு தனிப்பட்ட தரவைச் சேகரிப்பது, விரிவான நடத்தை சுயவிவரங்களை உருவாக்குவது மற்றும் தயாரிப்புகள் மற்றும் நிகழ்ச்சி நிரல்களை மேம்படுத்துவது. தனியுரிமை, பெயர் தெரியாத தன்மை (anonymity) மற்றும் தனி அதிகாரம் (autonomy) ஆகியவை பொருளாதார மற்றும் அரசியல் தேர்வுகளில் செல்வாக்கு செலுத்தும் செயற்கை நுண்ணறிவின் திறனால் மிகவும் பாதிக்கப்படுகின்றன. உலகளாவிய, பிராந்திய மற்றும் தேசிய மட்டங்களில் உடனடி நடவடிக்கை இல்லாமல், தனியுரிமை மற்றும் ஜனநாயகம் கடந்த கால விஷயங்களாக மாறும்.
2023 ஆம் ஆண்டில் அனு பிராட்ஃபோர்டின் "Digital empires” புத்தகத்தின்படி, அமெரிக்காவிற்கும் சீனாவிற்கும் இடையே நடந்து வரும் டிஜிட்டல் மோதல்கள் மூன்று தனித்துவமான "டிஜிட்டல் பேரரசுகளை" உள்ளடக்கியதாகக் காணலாம். அமெரிக்காவில், செயற்கை நுண்ணறிவு தொழில்துறைக்கு முழுமையான சுதந்திரத்தை ஊக்குவிக்கும் டிஜிட்டல் மாதிரி உள்ளது. அது ஒரு தொழில்நுட்ப-நம்பிக்கை அணுகுமுறையை ஒத்திருக்கிறது. இந்த மாதிரி சுதந்திரமான பேச்சு மற்றும் திறந்த சந்தைகளை வலியுறுத்துகிறது, சந்தை சக்திகள் வடிவம் மற்றும் உள்ளடக்கம் இரண்டையும் வடிவமைக்க அனுமதிக்கிறது. இந்த அணுகுமுறை சமூக ஊடகத் துறையின் வளர்ச்சியைத் தூண்டியது, இது 2001இல் $193.52 பில்லியனில் இருந்து 2023 இல் $231.1 பில்லியனாக உயர்ந்துள்ளது, 2027 இல் $454.37 பில்லியனாக அதிகரிக்கும் என்று எதிர்பார்க்கப்படுகிறது.
தொழில்நுட்பத்தைப் பற்றிய அதீத நம்பிக்கை அரசாங்கத்தின் கட்டுப்பாட்டில் இருக்கும் சர்வாதிகார அணுகுமுறையை நோக்கி நகர்கிறது. சீனாவில், தனியார் செயற்கை நுண்ணறிவு நிறுவனங்களின் மீதான கண்காணிப்பு மற்றும் ஆதிக்கத்தை உள்ளடக்கிய அரசால் இயக்கப்படும் ஒழுங்குமுறை மாதிரியைப் பயன்படுத்துகின்றனர். இந்த மாதிரி உலகளவில் செல்வாக்கு பெற்று வருகிறது, அதன் விளைவுகள் பற்றி அமெரிக்கா, ஐரோப்பிய ஒன்றியம் மற்றும் பிற ஜனநாயக நாடுகளை கவலையடைய செய்கிறது.
சீனாவின் ஒழுங்குமுறை மாதிரி மேலோங்கும் என்ற கவலை உண்மையானது. ஏனெனில் சீனாவின் தொழில்நுட்ப வளர்ச்சி ஈர்க்கக்கூடியதாக இருந்தாலும், "தொழில்நுட்பத்தைப் பயன்படுத்துவதற்கான அதன் வழி பெரும்பாலும் ஆழமான அடக்குமுறையாகும். சீன அரசால் இயக்கப்படும் மாதிரியானது "பல வளரும் சர்வாதிகார நாடுகளுக்கு முறையிடுகிறது" ஏனெனில் அது "அரசியல் கட்டுப்பாட்டை மிகப்பெரிய தொழில்நுட்ப வெற்றியுடன் ஒருங்கிணைக்கிறது". இதற்கு நேர்மாறாக, உண்மையில் இருக்கும் சில "ஜனநாயக" சமூகங்கள் ஐரோப்பிய ஒன்றிய மாதிரியை விரும்புவதாகத் தெரிகிறது, இது அதிக சமத்துவமான மற்றும் மனிதனை மையமாகக் கொண்ட டிஜிட்டல் பொருளாதாரத்தின் தேவையான கட்டுமானத் தொகுதிகளை வழங்குகிறது. நவம்பர் 22, 2021 அன்று, வளர்ச்சிக்கான ஐரோப்பிய ஒன்றியப் பிரகடனம் (EU Declaration on Development) மனித உரிமைகள் அடிப்படையிலான வளர்ச்சிக்கான அணுகுமுறைக்கு ஆதரவளிக்கிறது, மனித உரிமைகளுக்கான மரியாதையை "உள்ளடக்கிய மற்றும் நிலையான வளர்ச்சியை அடைவதற்கான முன்நிபந்தனையாக" முன்வைக்கிறது.
கண்காணிப்பு முதலாளித்துவம், டிஜிட்டல் எதேச்சாதிகாரம் அல்லது தாராளவாத ஜனநாயக விழுமியங்கள் மனித ஈடுபாட்டிற்கும் நமது சமூகத்திற்கும் அடித்தளமாக நிலவும் டிஜிட்டல் சகாப்தத்திற்கு நாம் முன்னேறும் போது, அது வெளிப்படையாக இருந்தாலும், தொழில்நுட்ப அரசியலின் நிச்சயமற்ற எதிர்காலத்தின் வாக்குறுதியைப் பற்றி பிராட்போர்ட்(Bradford) நமக்கு நினைவூட்டுகிறார்.
போர் மற்றும் பயங்கரவாதத்தில் செயற்கை நுண்ணறிவின் பயன்பாட்டை நாம் விரிவாக ஆராய வேண்டும். செயற்கை நுண்ணறிவு போரை கடுமையாக மாற்றியுள்ளது. ஆளில்லா ஆபத்தான தானியங்கி ஆயுத அமைப்புகளின் (unmanned lethal autonomous weapons) பயன்பாடு இயந்திர கற்றலில் முழுமையான நம்பிக்கையை காட்டுகிறது மற்றும் போரை மனிதாபிமானமற்றதாக்குகிறது, இது சர்வதேச மனிதாபிமான சட்டத்திற்கு பின்னடைவாகும் என அமெரிக்க பாதுகாப்புத் துறை விளக்குகிறது. பொதுமக்கள் அல்லது இராணுவம் என அனைத்து பகுதிகளிலும் செயற்கை நுண்ணறிவு பயன்பாடுகளை மிகவும் மனிதாபிமானமாக மாற்றுவதற்கான முயற்சி தொடர வேண்டும், அல்லது, டி.எஸ். எலியட், "தி வேஸ்ட் லேண்ட்" (Waste Land)இல், ‘சில சமயங்களில் முக்கியமான ஒன்றை சுருக்கமான, தைரியமான தருணத்தில் எப்படி விட்டுவிடுகிறோம்’ என்று கூறுவது போல, கவனக்குறைவான ஒரு தருணத்தில் நாம் அதை இழக்க நேரிடும்.
எழுத்தாளர் வார்விக் பல்கலைக்கழகத்தின் சட்டப் பேராசிரியர், தெற்கு குஜராத் மற்றும் டெல்லி பல்கலைக்கழகங்களின் முன்னாள் துணைவேந்தர்.