ஒழுங்குமுறை நிறுவப்பட்ட உரிமைகளைப் (existing rights) பின்பற்ற வேண்டும், நியாயமற்ற அல்லது நடைமுறைக்கு மாறான கொள்கைகளுக்கு வழிவகுக்கும் மிகைப்படுத்தப்பட்ட தேர்வுகளைத் தவிர்க்க வேண்டும்.
மார்ச் 1 அன்று, மின்னணு மற்றும் தகவல் தொழில்நுட்ப அமைச்சகத்தின் சைபர் சட்டம் (Cyber Law) மற்றும் தரவுஆளுமைக் குழு மூலம் ஒரு ஆலோசனையை வெளியிட்டது. இந்த ஆலோசனை இடைத்தரகர்கள் மற்றும் தளங்களை அனுமதிக்கும் உள்ளடக்கத்தில் கவனமாக இருக்குமாறு கூறுகிறது. உள்ளடக்கத்தை நிர்வகிப்பதில் உரிய விடாமுயற்சியின் முக்கியத்துவத்தை இது வலியுறுத்துகிறது. உள்ளடக்கம் தகவல் தொழில் நுட்ப விதிகள் விதிகள் 2021 ஐ மீறவில்லை என்பதை உறுதி செய்வதேநோக்கமாகக் கொண்டுள்ளது. ஆலோசனை குறிப்பாக பெரிய மொழி மாதிரிகள் (Large language modules (LLMs)) மற்றும் உருவாக்கும் திறன்கொண்ட செயற்கை நுண்ணறிவு (Generative AI) உள்ளிட்ட செயற்கை நுண்ணறிவு மாதிரிகளைக் குறிப்பிடுகிறது. தகவல் தொழில்நுட்ப விதிகளால் வரையறுக்கப்பட்டுள்ளபடி பயனர்கள் சட்டவிரோத செயல்களில் ஈடுபட இந்த தொழில்நுட்பங்கள் அனுமதிக்கக்கூடாது என்று அறிவுறுத்துகிறது.
IT விதிகளின் விதி 3(1)(b) இல் கோடிட்டுக் காட்டப்பட்டுள்ளது அல்லது IT சட்டத்தில் உள்ள வேறு எந்தச் சட்டங்களையும் மீறுவது போன்ற சட்டவிரோத உள்ளடக்கத்தைப் பகிர பயனர்களை தங்கள் AI கருவிகள் அனுமதிக்கவில்லை என்பதை உறுதிப்படுத்த Facebook மற்றும் Twitter போன்ற தளங்களை அரசாங்கம் கோரியது. இந்த அறிவுரையை பலர் தவறாக புரிந்து கொண்டுள்ளனர். புதிய உள்ளடக்கத்தை உருவாக்கும் செயற்கை நுண்ணறிவு மாதிரிகளை மட்டுமே குறிவைக்கிறது என்று அவர்கள் நினைக்கிறார்கள். இருப்பினும், இது உண்மையில் அனைத்து செயற்கை நுண்ணறிவு மாதிரிகளையும் உள்ளடக்கியது. எந்த உள்ளடக்கத்தை பயனர்களுக்குக் காட்ட வேண்டும் என்பதைத் தீர்மானிக்கப் பயன்படுத்தும் கணினி பயன்பட்டார்களும் இதில் அடங்கும். அவை வழங்கும் உள்ளடக்கத்திற்கும் அவை பரிந்துரைக்கும் உள்ளடக்கத்திற்கும் தளங்களே பொறுப்பு என்பதை அறிவுரை தெளிவுபடுத்துகிறது.
கூடுதலாக, செயற்கை நுண்ணறிவு மாதிரிகள் இன்னும் சோதிக்கப்படுகின்றன அல்லது நம்பகத்தன்மையற்றவை என்று கருதப்படுகின்றன. அவை பயன்படுத்துவதற்கு முன்பு அரசாங்கத்தின் வெளிப்படையான அனுமதியைப் பெற வேண்டும் என்று ஆலோசனை கூறுகிறது. ஆலோசனையின் இந்த பகுதி செயற்கை நுண்ணறிவு அமைப்புகளின் உள்ளார்ந்த தன்மையை புறக்கணிக்கிறது. அனைத்து செயற்கை நுண்ணறிவு அமைப்புகளும், குறிப்பாக இயந்திர கற்றல் ( Machine learning (ML)) மாதிரிகள், ஓரளவு நம்பமுடியாதவை. அவை தரவுகளிலிருந்து கற்றுக்கொள்ள வடிவமைக்கப்பட்டுள்ளன. அதாவது அவை தவறுகளைச் செய்யலாம். இந்த அமைப்புகளின் சிக்கலானது பெரும்பாலும் அவை எவ்வாறு செயல்படுகின்றன என்பதை முழுமையாக தணிக்கை செய்வது அல்லது புரிந்துகொள்வது கடினம். ஆலோசனையின் படி, ஒவ்வொரு செயற்கை நுண்ணறிவு மாதிரிகளுக்கும் அரசாங்க ஒப்புதல் தேவைப்படும். நன்கு விவாதிக்கப்பட்ட பெரிய மொழி மாதிரிகள்(Large Language Model (LLM)) மட்டுமல்லாமல், பல்வேறு பயன்பாடுகளில் தினசரி பயன்படுத்தப்படும் பரந்த அளவிலான இயந்திர கற்றல் (machine learning) அமைப்புகள் இதில் அடங்கும்.
முதல் மற்றும் இரண்டாவது கோரிக்கைகள், மிகவும் கணிக்கக்கூடிய மற்றும் நியாயமான முறையில், செயற்கை நுண்ணறிவு தொழில்துறை, கல்வியாளர்கள் மற்றும் தொழில்நுட்ப ஊடகங்களில் இருந்து மிகை மற்றும் தெளிவற்ற கூக்குரல்களை எழுப்பியுள்ளன. முதல் கோரிக்கை பாதுகாப்பான துறைமுகம் என்ற கருத்தை நீக்குகிறது என்றும், இரண்டாவது கோரிக்கை நடைமுறைக்கு மாறானது மற்றும் செயல்படுத்த முடியாதது என்றும் விமர்சகர்கள் கூறுகின்றனர். செயற்கை நுண்ணறிவை ஒழுங்குபடுத்துவது புதுமைகளைத் தடுக்கும் மற்றும் பொது நலனுக்கு தீங்கு விளைவிக்கும் என்ற உணர்வு வளர்ந்து வருகிறது. இருப்பினும், செயற்கை நுண்ணறிவின் மேற்பார்வை மற்றும் ஒழுங்குமுறை அவசியம் என்று ஒரு எதிர் வாதம் உள்ளது. யார் சிறைக்குச் செல்கிறார்கள், யார் கடன் பெறுகிறார்கள் அல்லது யார் நம்பகமானவர் என்று கருதப்படுகிறார் என்பதைப் பற்றி முடிவெடுக்கும் போது, கணிதம் முறைப்படுத்தப்பட வேண்டும். இந்த முடிவுகள் சமூக-தொழில்நுட்ப அமைப்புகளை உள்ளடக்கியது. மேலும், அத்தகைய அமைப்புகளின் பயன்பாடு சமூகத்தை பாதிக்கும் கொள்கைகள் மற்றும் ஒழுங்குமுறைகளை திறம்பட உருவாக்குகிறது என்பதை தொழில்துறை ஒப்புக்கொள்வது முக்கியம். இந்த முடிவுகளால் பாதிக்கப்பட்ட மக்களுக்கு இந்தக் கொள்கைகளை நிராகரிப்பதற்கான விருப்பம் இல்லை. இந்த அமைப்புகளின் எந்த அம்சங்களுக்கு ஒழுங்குமுறை தேவை என்பதை தீர்மானிப்பது மற்றும் அவற்றை ஒழுங்குபடுத்துவதற்கான பயனுள்ள வழிகளைக் கண்டறிவது உண்மையான சவால். விவாதம் செயற்கை நுண்ணறிவை (Artificial Intelligence(AI)) கட்டுப்படுத்தப்பட வேண்டுமா என்பதைப் பற்றியது அல்ல, ஆனால் அதை எவ்வாறு சரியாகச் செய்வது என்பது பற்றியது.
வாதம், செயற்கை நுண்ணறிவு ஒழுங்குபடுத்தப்பட வேண்டுமா என்பது பற்றியது அல்ல, ஆனால் அது எவ்வாறு திறம்பட செய்யப்பட வேண்டும். "செயற்கை நுண்ணறிவு" என்ற சொல் பரந்த மற்றும் துல்லியம் இல்லாதது. இது ஒழுங்குமுறை செயல்முறையை சிக்கலாக்குகிறது. ஒழுங்குமுறை சமூக தாக்கங்களைக் கொண்ட இயந்திர கற்றலின் குறிப்பிட்ட பயன்பாடுகளில் கவனம் செலுத்த வேண்டும். மனித மற்றும் பொருளாதார உரிமைகள் தொடர்பான பிரச்சினைகள் சம்பந்தப்பட்டிருப்பதால், இந்த மாதிரிகளைப் பயிற்றுவிக்க பயன்படுத்தப்படும் தரவுகளையும் விவாதம் கருத்தில் கொள்ள வேண்டும். விவாதங்கள் இயந்திர கற்றல் பயன்பாடுகளின் உறுதியான எடுத்துக்காட்டுகளில் கவனம் செலுத்த வேண்டும், உரிமைகள் மீறல்களைத் தடுப்பதற்கான தெளிவான கொள்கைகளுடன். சில சந்தர்ப்பங்களில், தடைகள் அவசியமாக இருக்கலாம். குறிப்பாக "உணர்ச்சி கண்டறிதல்" (“emotion detection”) அல்லது பொது மற்றும் பணியிடங்களில் முக அங்கீகாரத்தைப் (facial recognition technology) பயன்படுத்துவது போன்ற மனித உரிமைகள் அல்லது கண்ணியத்திற்கு ஆபத்தை ஏற்படுத்தும் தொழில்நுட்பங்களுக்கு. பரந்த கருத்துக்களை விட குறிப்பிட்ட மாதிரிகளில் கவனம் செலுத்துவது மிகவும் பயனுள்ள ஒழுங்குமுறைக்கு வழிவகுக்கும்.
கொள்கைகளை உருவாக்கும் போது, அவை என்ன சிக்கல்களை நிவர்த்தி செய்ய வேண்டும் என்பதை அறிவது முக்கியம். உதாரணமாக, சமூக ஊடக தளங்கள் ஜனநாயகத்தை எதிர்மறையாக பாதிக்கின்றன என்ற கவலை இருந்தால், அவற்றின் பாத்திரங்களை நாம் வேறுபடுத்த வேண்டும். ஒருபுறம், இந்த தளங்கள் தேர்ந்தெடுக்கப்பட்ட உள்ளடக்கத்தை ஊக்குவிக்கும்போது, அவை ஊடக நிறுவனங்களைப் போலவே செயல்படுகின்றன. அவை அதற்கேற்ப ஒழுங்குபடுத்தப்படலாம்.
கொள்கை வகுப்பாளர்கள் தாங்கள் தீர்க்க விரும்பும் குறிப்பிட்ட சிக்கல்களைக் கருத்தில் கொள்ள வேண்டும். உதாரணமாக, சமூக ஊடக தளங்கள் ஜனநாயகத்திற்கு தீங்கு விளைவிக்கும் மற்றும் அரசியல் விவாதங்களை இழிவுபடுத்தும் என்று கவலை இருந்தால், உள்ளடக்கத்தைப் பகிர்வதற்கான தளங்கள் மற்றும் உள்ளடக்கத்தை ஊக்குவிப்பவர்கள் போன்ற அவர்களின் பங்கை நாம் வேறுபடுத்தி பார்க்க வேண்டும். சமூக ஊடக நிறுவனங்களை அல்காரிதம்கள் மூலம் விளம்பரப்படுத்துவதிலிருந்து சமூக ஊடக நிறுவனங்களைக் கட்டுப்படுத்தும் முடிவு விவாதத்திற்குரியது. ஆனால், அது வெளியிடப்படும் அனைத்து உள்ளடக்கங்களுக்கும் அவர்களைப் பொறுப்பாக்குவதில் இருந்து வேறுபட்டது. இது பேச்சு சுதந்திரத்தை முடக்கும். ஒவ்வொரு பரிந்துரை முறையையும் ஒழுங்குபடுத்த முயற்சிப்பது நடைமுறைக்கு மாறானது. மேலும், தவறான தகவல்கள் எது என்பதைத் தீர்மானிக்க அரசு அல்லது தனியார் தளங்களை அனுமதிப்பது ஜனநாயகக் கொள்கைகளுக்கு எதிரானது.
செயற்கை நுண்ணறிவு ஒழுங்குமுறை குறித்த விவாதம் பெரும்பாலும் குறிப்பிட்ட தன்மையைக் கொண்டிருக்கவில்லை. தனித்துவமான சமூக மற்றும் தொழில்நுட்ப நுணுக்கங்களைக் காணவில்லை. இந்த தனித்துவத்தை அடைவதற்கு செயற்கை நுண்ணறிவு கல்வியாளர்கள், பயிற்சியாளர்கள் மற்றும் செயற்கை நுண்ணறிவு தொழில்நுட்பங்களால் பாதிக்கப்படுபவர்களிடையே தீவிர ஒத்துழைப்பு தேவைப்படுகிறது. இந்த செயல்முறை வெளிப்படையான, முழுமையான ஆலோசனைகளுடன் தொடங்க வேண்டும் மற்றும் உறுதியான சட்டத்தை நோக்கமாகக் கொள்ள வேண்டும். தற்போதைய ஆலோசனையை மறுபரிசீலனை செய்த பிறகு இதுபோன்ற முயற்சிகள் தொடங்கப்பட வேண்டும்.
கட்டுரையாளர் ஐ.ஐ.டி மும்பையில் உள்ள கொள்கை ஆய்வுகளுக்கான அஷாங்க் தேசாய் மையத்தில் (Ashank Desai Centre) செயற்கை நுண்ணறிவு மற்றும் கொள்கை குறித்து பயிற்றுவிக்கும் உதவி பேராசிரியராக உள்ளார்