2024 ஆம் ஆண்டை டைம் இதழில் "இறுதி தேர்தல் ஆண்டு" (ultimate election year) என்று அறிவித்துள்ளது. இது ஜனநாயகத்தின் மிகப்பெரிய உலகளாவிய பார்வையின் தேர்தல் நடைமுறையாகும். உலக மக்கள்தொகையில் பாதி பேர் தேர்தல்களில் ஈடுபடுகின்றனர். இந்த ஆண்டு, ஜனநாயகத்தின் பாதுகாவலர்கள் பொதுவான தேர்தல் களம் குறித்து மட்டுமல்ல, மின்னணு வகையான புதிய தேர்தல் களம் குறித்தும் கவலைப்படுகிறார்கள். 2023 செயற்கை நுண்ணறிவின் முக்கிய களமான ஆண்டாக இருந்ததால், செயற்கை நுண்ணறிவு 2024 தேர்தல் தொடர்பான பரபரப்பில் அதிகரிக்கக் கூடும் என்ற கவலை உள்ளது. டீப்ஃபேக்குகள், தவறான தகவல், ரோபோகால்கள் மற்றும் மின்னணு வாக்காளர் கையாளுதலின் பிற கொடூரமான வடிவங்கள் இங்கே அரங்கேறப்படுகின்றன.
உலகெங்கிலும் உள்ள அரசாங்கங்கள் இதற்குப் பதிலடியாக விரைவான நடவடிக்கையை எடுத்துள்ளன என்று எதிர்பார்க்கப்படுகிறது. ஒழுங்குமுறை சார்ந்த ஐரோப்பியர்கள் மற்றும் கட்டுப்பாடுகளை நிராகரிக்கும் அமெரிக்கர்கள், இந்தியாவின் மின்னணுவியல் மற்றும் தகவல் தொழில்நுட்பத் துறை அமைச்சர் ராஜீவ் சந்திரசேகர் உட்பட, செயற்கை நுண்ணறிவின் ஆபத்துக்களை முன்கூட்டியே அறிந்துகொள்வதாக வலியுறுத்துகிறார். செயற்கை நுண்ணறிவு உருவாக்கப்படும் தவறான தகவல்களைத் தீர்ப்பதற்கான ஒழுங்குமுறை விதிகளை அவசரமாகச் செயல்படுத்துகின்றனர். இருப்பினும், இந்த தேர்தல் ஆண்டில் செயற்கை நுண்ணறிவு சவால்களை எதிர்கொள்ளும் அவசரத்தில், செயற்கை நுண்ணறிவுடன் தொடர்புடைய பரந்த சிக்கல்களை நாம் கவனக்குறைவாக மோசமாக்கலாம் என்ற கவலை உள்ளது. இது நடக்கக்கூடிய மூன்று சாத்தியமான வழிகள் இங்கே:
முதலாவதாக, தவறான தகவல் அதிகரிப்பதன் மூலம். ஜனவரி மாதம் தேர்தல் தொடர்பான அனுபவம் ஏற்கனவே எச்சரிக்கைகளை எழுப்பியுள்ளது. பங்களாதேஷ் தேசியவாதக் கட்சித் தலைவர் (Bangladesh Nationalist Party leader) தாரிக் ரஹ்மானின் வழக்கின் மூலம், அவரது திரிக்கப்பட்ட வீடியோ, காசாவின் குண்டுவெடிப்பில் பாதிக்கப்பட்டவர்களுக்கு ஆதரவைக் குறைக்க பரிந்துரைப்பதைக் காட்டியது. இது ஒரு முஸ்லீம் பெரும்பான்மையாக உள்ள நாட்டில் வாக்குகளை இழக்க ஒரு உறுதியான வழியாகும். முகநூலில் (Facebook) உரிமையாளர் மெட்டா போலி காணொலியை நீக்க தனது ஒதுக்கப்பட்ட நேரத்தை எடுத்துக் கொண்டார். தாரிக் ரஹ்மான் டெய்லர் ஸ்விஃப்ட் அல்ல (no Taylor Swift), அவரது போலி ஆபாச படங்கள் விரைவான சமூக ஊடகத்தில் களங்கத்தை ஏற்படுத்தின. ஆனால், நிச்சயமாக, டீப்ஃக்கை (deepfakery) கண்டு பிடிப்பதில் இன்னும் கொஞ்சம் வேகம் பங்களாதேஷ் வாக்காளர்களுக்கு ஒரு நல்ல ஆறுதலாக இருந்திருக்கும்.
2023 ஆம் ஆண்டின் பெரிய பணிநீக்கங்களின் ஒரு பகுதியாக, மெட்டா அதன் நேரத்தை எடுத்துக்கொள்வதில் ஆச்சரியமில்லை. அவர்களின் உள்ளடக்க மதிப்பீட்டு ஊழியர்கள் குறைக்கப்பட்டனர். பல்வேறு நாடுகளில் தேர்தல்கள் நடைபெறுவதால், நிறுவனம் தங்கள் மெல்லிய வளங்களை எங்கு ஒதுக்குவது என்பது குறித்து தேர்வு செய்ய வேண்டும். மெட்டாவின் செயல்பாடுகளின் குறைப்பு ஆரம்பம்தான், மற்ற இடங்களில் உள்ள சமூக ஊடக தளங்களில் உள்ள உள்ளடக்கத்தை கட்டுப்படுத்தும் குழுக்கள் குறிப்பிடத்தக்க குறைப்புகளைச் சந்தித்துள்ளன. அமெரிக்கா அல்லது ஐரோப்பிய ஒன்றியம் மற்றும் இந்தியா போன்ற அதிக விளைவு சந்தைகளின் அழுத்தத்துடன், ஒரு பிடியில், அவர்கள் மிகவும் குரல் கொடுக்கும் கவலைகளை நிவர்த்தி செய்வதற்கு முன்னுரிமை அளிப்பார்கள். இதன் பொருள் பங்களாதேஷைப் போலவே உலகின் பிற பகுதிகளிலும் உள்ள வாக்காளர்கள் தங்களைத் தாங்களே தற்காத்துக் கொள்ள வேண்டியிருக்கும். இந்த ஆண்டு 83 நாடுகளில் தேர்தல் நடைபெற உள்ளது. முரண்பாடாக, ஒரு சில சக்திவாய்ந்த அரசாங்கங்களிடமிருந்து வரும் தவறான தகவல்களைப் பிடிக்க வேண்டிய அழுத்தம் காரணமாக உலகளவில் தவறான தகவல்களின் அளவு ஒட்டுமொத்தமாக அதிகரிக்கக்கூடும்.
இரண்டாவதாக, ஏற்கனவே சக்தி வாய்ந்தவர்களின் வளர்ந்து வரும் வலிமையானது, செயற்கை நுண்ணறிவு விதிமுறைகளின் தயாரிப்பு இரண்டாவது முரண்பாடான விளைவுக்கு வழிவகுக்கும். இதனால், செயற்கை நுண்ணறிவு தொழில்துறையின் செறிவை வலுப்படுத்துகிறது. அந்த செறிவின் உணர்வைப் பெற சில நிபந்தனைகள்: OpenAI, Anthropic மற்றும் Inflection ஆகிய மூன்று நிறுவனங்கள், கடந்த ஆண்டு உருவாக்கப்பட்ட செயற்கை நுண்ணறிவில் (generative AI) செய்யப்பட்ட அனைத்து முதலீடுகளிலும் மூன்றில் இரண்டு பங்கை மூலதனமாக வைத்தன. மேலும் அந்த பணம் அனைத்தும் மைக்ரோசாப்ட், கூகுள் மற்றும் அமேசான் ஆகிய மூன்று நிறுவனங்களிடமிருந்து வந்தது. ஐரோப்பிய ஒன்றிய விதிமுறைகள் (EU regulations) மற்றும் வெள்ளை மாளிகையின் நிர்வாக உத்தரவு ஆகியவை செயற்கை நுண்ணறிவு தயாரிப்புகளின் விவேகமான தேவைகளைக் கொண்டுள்ளன. அதாவது செயற்கை நுண்ணறிவால் உருவாக்கப்பட்ட உள்ளடக்கத்தை தெளிவாக அட்டவணையிட "வாட்டர்மார்க்கிங்" (watermarking) அல்லது செயற்கை நுண்ணறிவு மாதிரிகளில் பாதுகாப்பின் மீதான பாதிப்புகளைக் கண்டறிய "சிவப்பு-அணி" (red-teaming) பயிற்சிகளின் முடிவுகள் மற்றும் எதிரிகளால் உருவகப்படுத்தப்பட்ட தாக்குதல்கள் தேவைப்படுகின்றன. இருப்பினும், வாட்டர்மார்க்கிங் (watermarking) தேவைகள் சவால்களை ஏற்படுத்துகின்றன, ஏனெனில் வாட்டர்மார்க்குகள் முட்டாள்தனமானவை அல்ல. மேலும், வெளிப்புற ஆதாரங்களைச் சார்ந்திருக்கும் சிறிய நிறுவனங்கள் அத்தகைய ஆதார உள்ளடக்கத்தை சரிபார்க்க கடினமாக இருக்கலாம். சட்ட மற்றும் ஆவண செலவுகளுடன் பணியாளர் மற்றும் செயல்முறை சிக்கல்களை நீங்கள் கணக்கிட்டவுடன் சிவப்பு-அணி (red-teaming) பயிற்சிகள் விலை உயர்ந்தவை. இந்த விதிமுறைகள் நுழைவதற்கான தடைகளை ஏற்படுத்துவதன் மூலம் ஏற்கனவே சக்திவாய்ந்த நிறுவனங்களின் நிலையை வலுப்படுத்தும் மற்றும் சிறிய மற்றும் புதுமையான தொடக்கங்களுக்கு போட்டியிடுவதை கடினமாக்கும்.
செயற்கை நுண்ணறிவு தொழில்துறையில் குவிந்திருப்பது ஒரு சில நிறுவனங்களுக்கு அதிகாரத்தை ஒப்படைக்கிறது. ஒருவேளை அவை குருட்டுத்தனமாக இருக்கக்கூடிய நெறிமுறைகளில் தவறவிடலாம். மேலும், மேற்பார்வை அல்லது போட்டிக்கான சக்திகள் மற்றும் அதன் சார்புகள் இல்லாமல் அபாயங்கள் பெருக அனுமதிக்கின்றன. மேலும் கருப்பு பெட்டி அமைப்புகள் (black box system) விளைவான முடிவுகளின் கட்டுப்பாட்டைப் பெறுகின்றன.
மூன்றாவதாக, நேர்மையான வழிகாட்டுதல்களின் அபாயங்கள், செயற்கை நுண்ணறிவு வளர்ச்சியில் நெறிமுறைகள், ஆபத்து மற்றும் வெளிப்படைத்தன்மை பற்றிய இந்த கவலைகளுடன், பல கட்டுப்பாட்டாளர்கள் மற்றும் சிவில் சமூக குழுக்கள் கட்டமைப்புகள் மற்றும் வழிகாட்டுதல்களை உருவாக்கும் பணியில் ஈடுபட்டுள்ளன. ஆனால் இந்த வழிகாட்டுதல்களே சிக்கலாக இருக்கலாம்.
உதாரணமாக: யாருடைய நெறிமுறைகள் மற்றும் மதிப்புகள் கட்டமைப்பை தெரிவிக்க வேண்டும்? அரசியல், மதம், பொருளாதாரம் மற்றும் பலவற்றில் நாம் உடன்படாத பிளவுபட்ட காலங்களில் நாம் வாழ்கிறோம். சமூகங்கள் அடிப்படை நெறிமுறை கேள்விகளில் வேறுபடுகின்றன, அவை: பேச்சு சுதந்திரத்திற்கு முன்னுரிமை அளிக்கப்பட வேண்டுமா அல்லது பலவீனமானவர்களைப் பாதுகாக்க கருத்து வெளிப்பாட்டில் "காப்பாளர்கள்" (guardrails) இருக்க வேண்டுமா? ஐரோப்பிய ஒன்றிய விதிமுறைகள் முன்மொழிவது போல, ஆபத்து நிலைகளின் அடிப்படையில் ஒழுங்குமுறைக்கு முன்னுரிமை அளிக்கும் யோசனை கூட சர்ச்சைக்குரியதாக இருக்கலாம். சிலர் செயற்கை நுண்ணறிவின் அபாயங்கள் இருத்தலியல் என்று நம்புகிறார்கள், மற்றவர்கள் இதுபோன்ற கடுமையான எச்சரிக்கைகள் உடனடி அதிக சாத்தியக்கூறு அபாயங்களிலிருந்து நம்மைத் திசைதிருப்புகின்றன என்று நம்புகிறார்கள். பிரதமர் நரேந்திர மோடியின் பொருளாதார ஆலோசனைக் குழுவின் உறுப்பினர்களே செயற்கை நுண்ணறிவு விஷயத்தில் இடர் மேலாண்மை என்ற யோசனை கூட ஆபத்தானது என்று வாதிட்டனர். செயற்கை நுண்ணறிவு என்பது நேரியல் அல்லாதது, வளரும் மற்றும் கணிக்க முடியாதது என்று ஒரு "சிக்கலான தகவமைப்பு அமைப்பு" (complex adaptive system) மற்றும் முன்பே அமைக்கப்பட்ட ஆபத்து கட்டமைப்புகளின் அப்பட்டமான கருவிகளைப் பயன்படுத்துவது முட்டாள்தனமானது என்று அவர்கள் வாதிடுகின்றனர்.
வெளிப்படைத்தன்மை ஒரு அர்த்தமுள்ள தேவையாக இருக்க, நமக்கு செயற்கை நுண்ணறிவு அமைப்புகளின் தணிக்கைகள் தேவை. ஆனால் அவற்றை யார் செய்வார்கள், அவற்றை கட்டாயமாக்கும் சட்டங்கள் எங்கே? இனம் மற்றும் பாலின சார்புக்காக முதலாளிகள் தானியங்கி வேலைவாய்ப்பு முடிவு கருவிகளைப் பயன்படுத்த வேண்டும் என்று நியூயார்க்கில் ஒரு முக்கிய சட்டம் சமீபத்திய கார்னெல் ஆய்வில் (Cornell study) கண்டறியப்பட்டது. இதற்கிடையில், IBM மற்றும் OpenAI போன்ற நிறுவனங்கள் தங்கள் சொந்த வெளிப்படைத்தன்மை வழிமுறைகளை தன்னார்வத் தொண்டு செய்து வருகின்றன. இருப்பினும், கோழிக்குஞ்சுகளின் நிலை குறித்த அறிக்கைகளை நரிகள் உருவாக்கும் போது நாம் எச்சரிக்கையாக இருக்க வேண்டும்.
எனவே, என்ன செய்ய வேண்டும்? முதலாவதாக, செயற்கை நுண்ணறிவு தொடர்பான கவலைகளைத் தீர்ப்பதற்கு முன்பே ஜனநாயகம் பல சவால்களை எதிர்கொள்கிறது என்பதைக் கவனத்தில் கொள்ள வேண்டும். அரசியல் வேட்பாளர்கள் ஏற்கனவே பல்வேறு பகுதிகளில் சிறையில் அடைக்கப்பட்டுள்ளனர், வெடிகுண்டு மிரட்டல்கள் விடுக்கப்பட்டுள்ளன, செல்போன் நெட்வொர்க்குகள் முடக்கப்பட்டுள்ளன, வேட்பாளர்கள் தோல்வியடைந்தால் அல்லது வாக்குச்சீட்டில் இருந்து நீக்கப்பட்டால் குழப்பம் ஏற்படும் என்று எச்சரித்துள்ளனர், மேலும் வாக்குகளை வாங்குதல் மற்றும் வாக்குச்சீட்டை நிரப்புதல் போன்ற நடைமுறைகள் தொடர்கின்றன. அதன் புதுமை இருந்தபோதிலும், AI தொடர்பான சிக்கல்கள், குறிப்பிடத்தக்க அளவிற்கு, இந்த ஆண்டு மிகவும் முக்கியமான பிரச்சனைகளில் ஒன்றாக இருக்காது.
இரண்டாவதாக, செயற்கை நுண்ணறிவின் தேர்தல் அபாயங்களை நாம் நிச்சயமாக தீவிரமாக எடுத்துக் கொள்ள வேண்டும். ஆனால் அந்த அபாயங்களை நிர்வகிப்பதற்கான அவசர முயற்சிகளால் முன்வைக்கப்படும் அபாயங்களையும் மனதில் கொள்ள வேண்டும். தேர்தலுக்கு முன்னதாக செயற்கை நுண்ணறிவில் ஆட்சி செய்ய ஒருங்கிணைப்பாளர்களிடையே ஒரு போட்டி உள்ளது. அது, 2024 இன் செயற்கை நுண்ணறிவு வெறிக்குப் பிறகு செயற்கை நுண்ணறிவு இல்லாத ஆண்டாக 2023 ஐ அமைக்கிறது. இந்த நல்ல நோக்கம் கொண்ட கட்டுப்பாட்டாளர்கள் அவசர விதிமுறைகளின் திட்டமிடப்படாத விளைவுகளைப் புரிந்துகொள்வது நல்லது.
மூன்றாவதாக, செயற்கை நுண்ணறிவு ஒருங்கிணைப்பாளர்கள் முன்கூட்டியே திட்டமிட்டு எதிர்காலத்தில் மிகவும் குறிப்பிடத்தக்க அபாயங்களை எதிர்பார்க்கும் விதிகளை உருவாக்க வேண்டும். 2024க்கு அப்பால் நடக்கும் தேர்தல்களில் வாக்காளர்கள் இத்தகைய முன்னோக்கு சிந்தனையை பாராட்டுவார்கள்.
எழுத்தாளர் டஃப்ட்ஸ் பல்கலைக்கழகத்தில் உள்ள தி பிளெட்சர் பள்ளியில் உலகளாவிய வணிகத்தின் டீன் ஆவார்.
Original article: