உருவாக்கக்கூடிய செயற்கை நுண்ணறிவு (Generative AI) என்பது சமூகத்தை பெரிதும் மாற்றக்கூடிய ஒரு சக்திவாய்ந்த தொழில்நுட்பமாகும். இருப்பினும், செயற்கை நுண்ணறிவு இருப்பதற்கு முன்பே உருவாக்கப்பட்ட தற்போதைய சட்டங்கள் வேகமாக வளர்ந்து வரும் தொழில்நுட்பத்தை கட்டுப்படுத்த முடியாமல் போகலாம்.
பாதுகாப்பு ஏற்பாடு மற்றும் பொறுப்பு நிர்ணயம்
இணைய நிர்வாகத்தை நிர்வகிப்பதில் உள்ள சிக்கல்களில் ஒன்று "இடைத்தரகர்கள்" வழங்கும் உள்ளடக்கத்திற்கான பொறுப்பை சரிசெய்வதாகும். ஸ்ரேயா சிங்கால் வழக்கின் தீர்ப்பில், தகவல் தொழில்நுட்பச் சட்ட பிரிவு 79 இடைத்தரகர்களுக்கு பாதுகாப்பை வழங்கும் உறுதி செய்தது. இந்த தீர்ப்பின் மூலம் பல்வேறு பிரச்சனைகள் தீர்க்கப்பட்டது. தகவல் தொழில்நுட்பம் (இடைத்தரகர்கள் வழிகாட்டுதல்கள்) விதிகளின் பிரிவு 3(1)(b)-ல் குறிப்பிடப்பட்டுள்ள உரிய விடாமுயற்சி தேவைகளை அவர்கள் பூர்த்தி செய்தால் இந்தப் பாதுகாப்பு நடைமுறைகள் அவர்களுக்கு பொருந்தும் என்று குறிப்பிடப்பட்டுள்ளது. இருப்பினும், உருவாக்கக்கூடிய செயற்கை நுண்ணறிவு கருவிகளுக்கு இதைப் பயன்படுத்துவது சவாலானது.
உருவாக்கக்கூடிய செயற்கை நுண்ணறிவு (Generative AI) கருவிகள் குறித்து பல்வேறு கருத்துக்கள் நிலவுகின்றன. உருவாக்கக்கூடிய செயற்கை நுண்ணறிவு கருவிகள் இடைத்தரகர்களாக கருதப்பட வேண்டும் என்று சிலர் வாதிடுகின்றனர். அவை கிட்டத்தட்ட தேடுபொறிகளைப் போலவே பயன்படுத்தப்படுகின்றன. இருப்பினும், அவை மூன்றாம் தரப்பு வலைத்தளங்களுக்கான இணைப்புகளை வழங்குவதில்லை.
உருவாக்கக்கூடிய செயற்கை நுண்ணறிவு கருவிகள் பயனர் தூண்டுதலுக்கான வழிகள் என்று சிலர் வாதிடுகின்றனர். ப்ராம்ட்டை (prompt) மாற்றுவது முடிவுகளை மாற்றக்கூடும். இது சில நேரங்களில் உருவாக்கப்பட்ட உள்ளடக்கத்தினை மூன்றாம் தரப்பிற்கு ஆதரவாக மாற்றுகிறது. எனவே, உருவாக்கக்கூடிய செயற்கை நுண்ணறிவு கருவிகள் உருவாக்கும் உள்ளடக்கத்திற்கு குறைவான பொறுப்பைக் கொண்டிருக்க வேண்டும்.
2018-ஆம் ஆண்டு கிறிஸ்டியன் லூபோடின் சாஸ் எதிர். நகுல் பஜாஜ் மற்றும் பலர் (Christian Louboutin Sas vs Nakul Bajaj and Ors) வழக்கில், டெல்லி உயர்நீதிமன்றம் 2018-ல் ஒரு தீர்ப்பை வழங்கியது. பாதுகாப்பான சூழல்கள் "செயலற்ற" இடைத்தரகர்களுக்கு மட்டுமே பொருந்தும் என்று நீதிமன்றம் கூறியது. செயலற்ற இடைத்தரகர்கள் என்பது வெறும் வழித்தடங்களாக அல்லது செயலற்ற தகவல் பரிமாற்றிகளாக செயல்படும் நிறுவனங்களாகும்.
பெரிய மொழி மாதிரிகள் (Large Language Models (LLMs)) உள்ள சவால்கள்
பயனர் உருவாக்கிய மற்றும் இயங்குதளத்தில் உருவாக்கப்பட்ட உள்ளடக்கத்தை வேறுபடுத்துவது மிகவும் சவாலானது. பயனர்கள் மற்ற தளங்களில் தகவல்களை மறுபதிவு செய்யும் போது AI சாட்பாட்களுக்கான பொறுப்பை அதிகரிக்க செய்கிறது. பயனரை உறுதியாகச் சரிபார்க்க, பதில் மட்டும் போதாது.
உருவாக்கக்கூடிய செயற்கை நுண்ணறிவு வெளியீடுகள் உலகெங்கிலும் வெவ்வேறு இடங்களில் சட்டரீதியான சிக்கலை சந்தித்துள்ளன. அமெரிக்காவில் உள்ள ஒரு வானொலித் தொகுப்பாளர் OpenAIக்கு எதிராக வழக்கு தொடர்ந்தார். ChatGPT தன்னை இழிவுபடுத்தியதாக அவர் குற்றம் சாட்டினார். GAI கருவிகளை வகைப்படுத்துவதில் தெளிவின்மை உள்ளது. அவர்கள் இடைத்தரகர்கள், வழித்தடங்கள் அல்லது செயலில் உள்ள படைப்பாளர்களாக இருக்கலாம். இந்த தெளிவின்மை நீதிமன்றங்களின் பொறுப்பை வழங்குவதற்கான திறனை சிக்கலாக்குகிறது. குறிப்பாக பயனர் மறுபதிவுகளில் சிக்கல் சவாலானது.
பதிப்புரிமைப் புதிர்
இந்திய பதிப்புரிமைச் சட்டம் 1957-ன் (Copyright Act 1957) பிரிவு 16, சட்டத்தின் விதிகள் மட்டுமே பதிப்புரிமைப் பாதுகாப்பை வழங்க முடியும் என்று கூறுகிறது. இந்தியாவில், உலகளவில் செயற்கை நுண்ணறிவால் உருவாக்கப்பட்ட படைப்புகளுக்கு பதிப்புரிமை பாதுகாப்பை வழங்குவதில் தயக்கம் உள்ளது.
செயற்கை நுண்ணறிவு படைப்புகளைச் சேர்க்க பதிப்புரிமைச் சட்டங்கள் புதுப்பிக்கப்பட வேண்டுமா? செயற்கை நுண்ணறிவு-உருவாக்கிய படைப்புகள் பாதுகாக்கப்பட்டால், ஒரு மனித இணை ஆசிரியர் சம்பந்தப்பட்டிருக்க வேண்டுமா? அங்கீகாரப் பயனர், செயற்கை நுண்ணறிவு நிரல் அல்லது இரண்டிற்கும் நீட்டிக்கப்பட வேண்டுமா? 161-வது நாடாளுமன்ற நிலைக்குழு (Parliamentary Standing Committee) அறிக்கை, 1957-ன் பதிப்புரிமைச் சட்டம், செயற்கை நுண்ணறிவு மூலம் படைப்புரிமை மற்றும் உரிமையை போதுமான அளவில் குறிப்பிடவில்லை.
தற்போதைய இந்தியச் சட்டம் பதிப்புரிமை உரிமையாளர்கள் மீறல், தடைகள் மற்றும் சேதங்களுக்கு வழக்குத் தொடர அனுமதிக்கிறது. இருப்பினும், செயற்கை நுண்ணறிவுக் கருவிகளின் பதிப்புரிமை மீறலுக்கான பொறுப்புத் தெளிவாக இல்லை. உருவாக்கும் செயற்கை நுண்ணறிவுக் கருவிகளை இடைத்தரகர்கள், வழித்தடங்கள் அல்லது படைப்பாளிகள் என வகைப்படுத்துவது நீதிமன்றத்தில் பொறுப்பு ஒதுக்கீட்டைச் சிக்கலாக்கும். ChatGPT-ன் 'பயன்பாட்டு விதிமுறைகள் 'சட்டவிரோத உள்ளடக்கத்திற்கு பயனர்களை பொறுப்பாக்க முயற்சிக்கும். இந்தியாவில் இந்த விதிமுறைகள் செயல்படுத்தப்படுமா என்பது நிச்சயமற்றது.
கே.எஸ். புட்டசாமி தீர்ப்பு (2017) தனியுரிமை நீதித்துறையை நிறுவியது, இது டிஜிட்டல் தனிப்பட்ட தரவு பாதுகாப்புச் சட்டம், 2023 (Digital Personal Data Protection Act (DPDP))-க்கு வழிவகுத்தது. பாரம்பரிய தரவுத் திரட்டிகள் தனியுரிமை கவலைகளை எழுப்புகின்றன, ஆனால் GAI புதிய சிக்கல்களை அறிமுகப்படுத்துகிறது.
டிஜிட்டல் தனிப்பட்ட தரவு பாதுகாப்புச் சட்டம், 2023 (Digital Personal Data Protection Act (DPDP))-ல் "அழிக்கும் உரிமை" மற்றும் "மறக்கப்படுவதற்கான உரிமை" ஆகியவை இடம்பெற்றுள்ளது. இருப்பினும், ஒரு உருவாக்கும் செயற்கை நுண்ணறிவு மாதிரி தரவுகளின் மூலம், அதை "கற்றுக்கொள்ள" முடியாது. இது தனிப்பட்டத் தகவல்களின் மீதான கட்டுப்பாட்டை சிக்கலாக்குகிறது.
தொடர வேண்டிய படிகள்
1. சாண்ட்பாக்ஸ் அணுகுமுறையைப் பயன்படுத்தி உருவாக்கக்கூடிய செயற்கை நுண்ணறிவு இயங்குதளங்களுக்கு தற்காலிகமாகப் பொறுப்புகளில் இருந்து விலக்களிக்கும். இந்த அணுகுமுறை பொறுப்பான வளர்ச்சியை ஊக்குவிக்கிறது. இது சட்டச் சிக்கல்களை அடையாளம் காண, தரவு சேகரிக்க அனுமதிக்கிறது. இந்தத் தரவு எதிர்கால சட்டங்கள் மற்றும் ஒழுங்குமுறைகளுக்கு பயனுள்ளதாக இருக்கும்.
2. தரவு உரிமைகள் மற்றும் பொறுப்புகள்: உருவாக்கும் செயற்கை நுண்ணறிவு பயிற்சிக்கான தரவு கையகப்படுத்தலை மாற்றியமைத்தல். வருவாய்-பகிர்வு அல்லது உரிம ஒப்பந்தங்கள் மூலம், பயிற்சி மாதிரிகளில் பயன்படுத்தப்படும் அறிவுசார் சொத்துக்களுக்கு முறையான உரிமம் மற்றும் இழப்பீட்டை உருவாக்குனர்கள் உறுதி செய்ய வேண்டும்.
3. உரிம சவால்கள்: உரிமத்தை எளிதாக்குவதற்கும், சார்பு மற்றும் பாகுபாட்டிற்கு எதிராக தரவு ஒருமைப்பாட்டை உறுதி செய்வதற்கும், புகைப்பட வலைத்தளங்களைப் போலவே, உருவாக்கும் செயற்கை நுண்ணறிவுக்கான தரவை பெறுவதற்கான மையப்படுத்தப்பட்ட தளங்களை உருவாக்கவும்.
உருவாக்கும் செயற்கை நுண்ணறிவை சுற்றியுள்ள நீதித்துறை இன்னும் வளர்ந்து வருகிறது மற்றும் டிஜிட்டல் சட்டங்களின் விரிவான மறுமதிப்பீடு தேவைப்படுகிறது. தனிநபர் உரிமைகளைப் பாதுகாக்கும் அதே வேளையில் உருவாக்கக்கூடிய செயற்கை நுண்ணறிவு (Generative AI) நன்மைகளை அதிகரிக்க ஒரு முழுமையான அணுகுமுறை மற்றும் நீதிமன்றங்களின் கவனமான மேற்பார்வை மிகவும் அவசியம்.