செயற்கை நுண்ணறிவு (artificial intelligence (AI)) அமைப்புகளின் விரைவான வளர்ச்சியைக் கட்டுப்படுத்த உலகம் முயற்சிக்கிறது. கடந்த ஆண்டு Bletchley Park AI பாதுகாப்பு உச்சி மாநாட்டில், அமெரிக்காவும் இங்கிலாந்தும் ஒத்துழைப்பதாக உறுதியளித்தன. 1 ஏப்ரல் 2023 அன்று அவர்கள் ஒப்பந்தத்தில் கையெழுத்திட்டனர். மிகவும் மேம்பட்ட செயற்கை நுண்ணறிவு மாதிரி சோதனைகளை உருவாக்க இந்த ஒப்பந்தம் உதவும்.
செயற்கை நுண்ணறிவு மாதிரிகள் (AI models) மற்றும் அமைப்புகள் (systems) குறித்த முக்கியமான விவரங்களை இரு நாடுகளும் பகிர்ந்து கொள்ளும் என்று ஒப்பந்தம் கூறுகிறது. இந்த விவரங்களில் அவற்றின் திறன்கள் மற்றும் அபாயங்கள் ஆகியவையும் அடங்கும். ஒப்பந்தம், உடனடியாக வேலை செய்யத் தொடங்கியுள்ளது. செயற்கை நுண்ணறிவை பாதுகாப்பாக வைத்திருப்பது குறித்த அடிப்படை ஆராய்ச்சிகளையும் அவர்கள் பகிர்ந்து கொள்வார்கள். தவிர, செயற்கை நுண்ணறிவு அமைப்புகளை எவ்வாறு பாதுகாப்பாக பயன்படுத்துவது என்பது குறித்து அவர்கள் ஒன்றிணைந்து செயல்பட திட்டமிட்டுள்ளனர். செயற்கை நுண்ணறிவு அமைப்புகளின் விரைவான வளர்ச்சியைக் கட்டுப்படுத்த உலகம் முயற்சிக்கிறது. இந்த அமைப்புகள் நன்மைகளைக் கொண்டுள்ளன. ஆனால் பெரிய அபாயங்களையும் கொண்டு வருகின்றன. தவறான தகவல்களைப் பரப்புவதும், தேர்தல்களின் நேர்மையைப் பாதிப்பதும் இந்த அபாயங்களில் அடங்கும்.
அமெரிக்காவும் பிரிட்டனும் இணைந்து செயல்பட இணக்கம் தெரிவித்துள்ளன. அவர்கள் தங்கள் அறிவியல் முறைகளை பொருத்தி, செயற்கை நுண்ணறிவுக்கான விரிவான சோதனைகளை விரைவாக உருவாக்குவார்கள். இந்த சோதனைகள் செயற்கை நுண்ணறிவு மாதிரிகள், அமைப்புகள் மற்றும் முகவர்களை சரிபார்க்கும். இரு நாடுகளின் செயற்கை நுண்ணறிவு பாதுகாப்பு நிறுவனங்களும் திட்டங்களைக் கொண்டுள்ளன. செயற்கை நுண்ணறிவு பாதுகாப்பை சோதிக்க பகிரப்பட்ட முறையை உருவாக்க அவர்கள் விரும்புகிறார்கள். இந்த அபாயங்களை திறம்பட எதிர்த்துப் போராடுவதற்கான தங்கள் திறன்களையும் அவர்கள் பகிர்ந்து கொள்வார்கள். மக்கள் பயன்படுத்தக்கூடிய செயற்கை நுண்ணறிவு மாதிரியில் குறைந்தது ஒரு கூட்டு சோதனையையாவது செய்ய நாடுகள் திட்டமிட்டுள்ளன என்று நிபுணர் கூறினார். அவர்கள் ஒருவருக்கொருவர் அறிவைப் பயன்படுத்த விரும்புகிறார்கள். நிறுவனங்களுக்கு இடையில் ஊழியர்களை பரிமாறிக்கொள்வதன் மூலம் இதைச் செய்ய அவர்கள் திட்டமிட்டுள்ளனர்.
செயற்கை நுண்ணறிவு அமைப்புகளை பாதுகாப்பானதாக மாற்ற அமெரிக்காவும் இங்கிலாந்தும் இணைந்து செயல்படுகின்றன. உலகளவில் செயற்கை நுண்ணறிவின் பாதுகாப்பை அதிகரிக்க மற்ற நாடுகளுடன் இணைந்து பணியாற்றவும் அவர்கள் திட்டமிட்டுள்ளனர். இந்த செய்தியை அமெரிக்க வர்த்தகத் துறை பகிர்ந்துள்ளது. அமெரிக்காவில், தேசிய தொலைத்தொடர்பு மற்றும் தகவல் நிர்வாகம் (National Telecommunications and Information Administration (NTIA)) செயற்கை நுண்ணறிவை ஆராயத் தொடங்கியுள்ளது. பொது அளவுருக்கள் கொண்ட செயற்கை நுண்ணறிவு மாதிரிகளின் நல்ல மற்றும் கெட்ட பக்கங்களை அவர்கள் ஆராய்ந்து வருகின்றனர். இந்த அளவுருக்கள் முடிவுகளை எடுக்க செயற்கை நுண்ணறிவு பயன்படுத்த கற்றுக்கொள்கிறது. 2023 ஆம் ஆண்டில் செயற்கை நுண்ணறிவு பயன்பாட்டை பாதுகாப்பானதாக மாற்ற ஜனாதிபதி ஜோ பைடன் உத்தரவிட்ட பின்னர் இந்த முயற்சி தொடங்கியது. பல தலைப்புகளைப் பற்றி மக்கள் என்ன நினைக்கிறார்கள் என்பதை தேசிய தொலைத்தொடர்பு மற்றும் தகவல் நிர்வாகம் அறிய விரும்புகிறது. செயற்கை நுண்ணறிவு மாதிரிகள் எவ்வளவு திறந்திருக்க வேண்டும் மற்றும் செயற்கை நுண்ணறிவின் அளவுருக்களை பொதுவில் வைப்பதன் நன்மை தீமைகள் இதில் அடங்கும். வெளிப்படைத்தன்மை புதுமை, போட்டி, பாதுகாப்பு, பாதுகாப்பு, நம்பிக்கை, நேர்மை மற்றும் தேசிய பாதுகாப்பு ஆகியவற்றை எவ்வாறு பாதிக்கிறது என்பதிலும் அவர்கள் ஆர்வமாக உள்ளனர். கடைசியாக, செயற்கை நுண்ணறிவு அளவுருக்கள் கிடைப்பதை அமெரிக்க அரசாங்கம் எவ்வாறு கையாள வேண்டும் என்பது குறித்த கருத்துக்களை கேட்கிறார்கள்.
முன்னதாக facebook என்று அழைக்கப்பட்ட metta, அதன் Llama மாதிரியை (Llama mode) பொதுமக்களுடன் பகிர்ந்து கொண்டுள்ளது. தேசிய தொலைத்தொடர்பு மற்றும் தகவல் நிர்வாகத்தின் ஆலோசனைக்கு அவர்களின் பதிலில், அவர்கள் அமெரிக்க கண்டுபிடிப்புகளில் திறந்த மூலத்தின் (open source) முக்கியத்துவத்தை வலியுறுத்தினர். அதை "அடித்தளம்" (“foundation”) என்று அழைத்தனர். பொருளாதார வளர்ச்சி, உள்நாட்டுக் கொள்கைகள், வெளிநாட்டு உறவுகள், சர்வதேச வளர்ச்சி மற்றும் தேசிய பாதுகாப்பு உள்ளிட்ட பல்வேறு நலன்களுக்கு தேசிய மற்றும் சர்வதேச அளவில் பொறுப்பான திறந்த மூல செயற்கை (open source Al ) நுண்ணறிவை ஆதரிப்பது முக்கியமானது என்று நம்புகின்றனர்.
ChatGPT ஐ உருவாக்கிய OpenAI, அதன் கருத்துக்களில் ஒரு சீரான பார்வையை வெளிப்படுத்தியுள்ளது. அவர்களின் முதன்மை செயற்கை நுண்ணறிவு மாதிரிகளை பயன்பாட்டு நிரலாக்க இடைமுகங்கள் (Application Programming Interfaces (API)) மூலம் கிடைக்கச் செய்வது மற்றும் ChatGPT போன்ற வணிக தயாரிப்புகள் வெளியீட்டிற்குப் பிறகு கண்டறியப்பட்ட அபாயங்களைப் படிக்கவும் நிவர்த்தி செய்யவும் அனுமதித்துள்ளன. மாதிரி எடைகள் வெளிப்படையாக வெளியிடப்பட்டிருந்தால், இந்த நடவடிக்கைகளில் சில சாத்தியமில்லை என்று அவர்கள் குறிப்பிட்டுள்ளனர்.
மாதிரி எடைகளை வெளிப்படையாக வெளியிடுவது மற்றும் பயன்பாட்டு நிரலாக்க இடைமுகங்கள் (API) மற்றும் தயாரிப்புகள் மூலம் செயற்கை நுண்ணறிவை வெளியிடுவது ஆகிய இரண்டும் நன்மை பயக்கும் செயற்கை நுண்ணறிவை உருவாக்க பயனுள்ளதாக இருக்கும் என்பதை நாங்கள் பெற்ற அனுபவங்கள் நமக்குக் காட்டுகின்றன. அமெரிக்காவின் சிறந்த செயற்கை நுண்ணறிவு சுற்றுச்சூழல் அமைப்பு இரண்டையும் கொண்டிருக்கும் என்று நம்புகின்றனர்.
தனியார் நிறுவனங்கள் தொடர்ந்து புதிய யோசனைகளைக் கொண்டு வந்தாலும், உலகளவில் சட்டமியற்றுபவர்கள் அதன் எதிர்மறை விளைவுகளைக் கட்டுப்படுத்த செயற்கை நுண்ணறிவை நம்புகின்றனர் எவ்வாறு ஒழுங்குபடுத்துவது என்பதைக் கண்டுபிடிக்க முயற்சிக்கின்றனர். இந்திய அரசு முதலில் செயற்கை நுண்ணறிவு (generative AI) நிறுவனங்களுக்கு புதிய அமைப்புகளைப் பயன்படுத்துவதற்கு முன் அனுமதி பெறச் சொன்னது. ஆனால், உலகளாவிய விமர்சனத்துக்குப் பிறகு, அரசாங்கம் அந்த ஆலோசனையை திரும்பப் பெற்று, அரசாங்க ஒப்புதல் தேவைப்படாமல் என்பதாக புதிய அறிவிப்பு ஒன்றை வெளியிட்டது. இதற்கிடையில், ஐரோப்பிய ஒன்றியத்தில், AI சட்டம் என்று ஒரு புதிய சட்டம் உள்ளது. இது AI பயன்பாட்டிற்கான விதிகளை அமைக்கிறது, குறிப்பாக காவல்துறை. விதிகள் மீறப்பட்டதாக மக்கள் நினைத்தால் புகார் அளிக்கலாம்.
அமெரிக்க வெள்ளை மாளிகை செயற்கை நுண்ணறிவு பற்றிய நிர்வாக ஆணையை (Executive Order on AI) வெளியிட்டது. இது மற்ற நாடுகளுக்கு செயற்கை நுண்ணறிவை ஒழுங்குபடுத்துவதற்கான ஒரு வரைபடத்தைப் (blueprint) போன்றது. கடந்த அக்டோபரில், வாஷிங்டன் செயற்கை நுண்ணறிவு உரிமைகள் மசோதாவில் (AI Bill of Rights) உரிமைகளுக்கான வரைபடத்தை வெளியிட்டது. இது நிர்வாக ஒழுங்குக்கான அடித்தளமாக பார்க்கப்படுகிறது.
சௌமிரேந்திர பாரிக் தி இந்தியன் எக்ஸ்பிரஸ் நாளிதழின் சிறப்பு நிருபராக பணியாற்றி வருகிறார்.