டெல்லி உயர் நீதிமன்றத்தில் OpenAI-க்கு எதிராக ஏசியன் நியூஸ் இன்டர்நேஷனல் (Asian News International (ANI)) சமீபத்தில் தொடங்கிய வழக்கு, இந்தியாவில் செயற்கை நுண்ணறிவு (artificial intelligence (AI)) உருவாக்குபவர்களின் (developers) சட்டப் பொறுப்புகள் குறித்த விமர்சன உரையாடல்களைத் தூண்டியுள்ளது.
ANI வழக்கின் மையத்தில் OpenAI இன் large language models (LLMs) அங்கீகாரம் இல்லாமல் பதிப்புரிமை பெற்ற பொருட்களில் பயன்படுத்தின என்ற குற்றச்சாட்டு உள்ளது. இந்த பிரச்சினை உலகளாவிய முன்னேற்றங்களை பிரதிபலிக்கிறது. அமெரிக்காவில் OpenAI-க்கு எதிராக நியூயார்க் டைம்ஸ் கொண்டு வந்த வழக்கும், பதிப்புரிமை மீறலை மையமாகக் கொண்டுள்ளது. இந்த சர்ச்சைகளின் முக்கிய அம்சம், சரியான உரிமங்களைப் பெறாமல் AI மாதிரிகளைப் பயிற்றுவிப்பதற்காக, பொதுவில் கிடைக்கும் மூலங்களிலிருந்து எடுக்கப்பட்ட உள்ளடக்கத்தைப் பயன்படுத்துவதாகும்.
இந்தியாவில், அறிவுசார் சொத்துரிமையை நிர்வகிக்கும் 1957-ஆம் ஆண்டின் பதிப்புரிமைச் சட்டத்தில், செயற்கை நுண்ணறிவு சார்ந்த பயன்பாட்டு வழக்குகளை நிவர்த்தி செய்வதற்கான தெளிவான விதிகள் இல்லை. எனவே, AI உருவாக்குநர் (developers) கவனமாக இருக்க வேண்டும் மற்றும் AIயைப் பயிற்றுவிக்க தரவைப் பயன்படுத்துவதற்கு முன்பு உள்ளடக்க உரிமையாளர்களிடமிருந்து அனுமதியைப் பெற வேண்டும்.
உரிமம் பெறுவது சட்டச் சிக்கல்களைத் தவிர்க்க உதவுகிறது மற்றும் உள்ளடக்கத்தை உருவாக்குபவர்களுடன் நல்ல உறவை உருவாக்குகிறது. இது வருவாய்-பகிர்வு ஒப்பந்தங்கள் அல்லது வரையறுக்கப்பட்ட பயன்பாட்டிற்கான உரிமங்களை உள்ளடக்கியது, ஒப்பந்தத்தில் இருந்து இரு தரப்பினரும் ஆதாயத்தை உறுதிப்படுத்துகிறது.
மற்றொரு சர்ச்சைக்குரிய சட்ட பிரச்சினை இந்திய பதிப்புரிமை சட்டத்தின் கீழ் "நியாயமான பயன்பாடு" அல்லது "நியாயமான கையாளுதல்" விதிகளின் பொருந்தக்கூடிய தன்மை பற்றியது. நியாயமான பயன்பாட்டிற்கு அமெரிக்கா ஒப்பீட்டளவில் பரந்த முறையை வழங்கினாலும், குறிப்பாக உருமாறும் அல்லது வணிகம் அல்லாத சூழல்களில், நியாயமான கையாளுதல் குறித்த இந்தியாவின் விளக்கம் குறுகியது. இங்குள்ள நீதிமன்றங்கள் வரலாற்று ரீதியாக பதிப்புரிமை வைத்திருப்பவர்களுக்கு ஆதரவாக உள்ளன.
குறிப்பாக, வணிகப் பயன்பாடு சம்பந்தப்பட்ட வழக்குகளில். AI உருவாக்குநர் (developers) தங்கள் பயிற்சி நடைமுறைகளை நியாயப்படுத்த நியாயமான கையாளுதலைப் பயன்படுத்தினால் சவால்களை எதிர்கொள்ள நேரிடும். பெரிய, லாபம் சார்ந்த பயிற்சி செயல்முறைகளுக்கு இது குறிப்பாக பொருந்தும். பொதுவில் கிடைக்கும் உள்ளடக்கம்கூட அதன் நோக்கத்திற்கு அப்பால் பயன்படுத்தினால் பதிப்புரிமையால் பாதுகாக்கப்படலாம்.
இழப்பீட்டு உட்பிரிவுகள்
வளர்ந்து வரும் இந்த சட்ட நிலப்பரப்பில், உருவாக்குநர் (developers) மட்டுமல்ல, AI அமைப்புகளின் பயனர்களையும் பாதுகாப்பதற்கான முக்கிய உத்தியாக இழப்பீடுகள் உருவாகி வருகின்றன. உள்ளடக்கத்தை உருவாக்க AI-ஐப் பயன்படுத்தும் வணிகங்கள் போன்ற LLM பயனர்கள் கவனக்குறைவாக மூன்றாம் தரப்பு பதிப்புரிமைகளை மீறலாம் அல்லது தரவுப் பாதுகாப்புச் சட்டங்களை மீறலாம்.
தங்கள் சேவை ஒப்பந்தங்களில் இழப்பீட்டு உட்பிரிவுகளை வழங்குவதன் மூலம், AI உருவாக்குநர் (developers) தங்கள் வாடிக்கையாளர்களை சாத்தியமான வழக்குகளிலிருந்து பாதுகாக்க முடியும். அதே நேரத்தில் பொறுப்பில் தெளிவான எல்லைகளை அமைக்கலாம். எவ்வாறாயினும், இந்த இழப்பீடுகள் கவனமாக வரைவு செய்யப்பட வேண்டும். பயனர் தவறான பயன்பாடுகளைக் காட்டிலும் AI அமைப்பிலிருந்து நேரடியாக எழும் உரிமைகோரல்களுக்கான வெளிப்பாட்டைக் கட்டுப்படுத்த வேண்டும்.
குறிப்பாக இந்தியாவின் டிஜிட்டல் தனிநபர் தரவுப் பாதுகாப்புச் சட்டம், 2023 (Digital Personal Data Protection Act, 2023 (DPDP Act)) விரைவில் நடைமுறைக்கு வருவதால், உருவாக்குநர் (developers) தரவுப் பாதுகாப்பில் கவனமாக இருக்க வேண்டும். AI அமைப்புகள், DPDP சட்டத்தின் நோக்கம் வரம்பு (குறிப்பிட்ட நோக்கங்களுக்காக மட்டுமே தரவைப் பயன்படுத்துதல்) மற்றும் தரவுக் குறைத்தல் (தேவையான அளவு தரவுகளைப் பயன்படுத்துதல்) ஆகியவற்றின் விதிகளைப் பின்பற்ற வேண்டும். இந்த விதிகளை மீறுவது கடுமையான அபராதங்களுக்கு வழிவகுக்கும். உருவாக்குநர் (developers) தனிப்பட்டத் தரவை பாதுகாப்பாக உபயோகிக்க வேண்டும் அல்லது AI மாதிரிகளைப் பயிற்றுவிப்பதற்கு அதைப் பயன்படுத்துவதற்கு முன் தெளிவான ஒப்புதலைப் பெற வேண்டும்.
AI பயிற்சித் தரவுகளில் அனுமதியின்றி பதிப்புரிமை பெற்ற உள்ளடக்கத்தைப் பயன்படுத்துவதற்கு நீதிமன்றங்களின் பதிலைப் பற்றிய கவலையை ANI வழக்கு எழுப்புகிறது. இதில் உள்ள ஒரு சாத்தியமான முடிவு என்னவென்றால், உருவாக்குநர் (developers) தங்கள் மாதிரிகளில் இருந்து அத்தகைய உள்ளடக்கத்தை அகற்ற நீதிமன்றங்கள் கோரலாம்.
இதற்கு ஒரு தீர்வு "மெஷின் அன்லெர்னிங்" ("machine unlearning") ஆகும். இந்த செயல்முறையானது குறிப்பிட்ட தரவுத்தொகுப்புகளின் செல்வாக்கை அழிக்க AI மாதிரிகளை மீண்டும் பயிற்றுவிப்பதை உள்ளடக்கியது. அவை ஒருபோதும் கணினியின் ஒரு பகுதியாக இல்லை. இது தொழில்நுட்ப ரீதியாக கடினமாக இருந்தாலும், குறிப்பாக பெரிய AI மாதிரிகளுக்கு, நீதிமன்றங்கள் AI பயிற்சி நடைமுறைகளில் அதிக கவனம் செலுத்துவதால், சட்டத் தேவைகளைப் பூர்த்தி செய்வதற்கான முக்கியமான வழியாக இது அமையும்.
ஐரோப்பிய ஒன்றியத்தின் AI சட்டத்திலிருந்து படிப்பினைகளைப் பெறலாம். எடுத்துக்காட்டாக, AI உருவாக்குநர் (developers) தங்கள் அமைப்புகளின் ஆற்றல் நுகர்வு, வாழ்க்கை சுழற்சி செயல்திறன் மற்றும் தரவு பயன்பாட்டு நடைமுறைகள் பற்றிய விவரங்களை வெளியிட வேண்டும் என்று ஐரோப்பிய ஒன்றியம் கோருகிறது. மின்னணு மற்றும் தகவல் தொழில்நுட்ப அமைச்சகம் (Ministry of Electronics and Information Technology (MeitY)) போன்ற இந்தியாவின் கட்டுப்பாட்டாளர்கள் இதே போன்ற தேவைகளை பின்பற்றலாம்.
AI அமைப்புகள் இத்தகைய நெறிமுறைகளை நிலையானவை என்பதை உறுதி செய்யலாம். உரிமம், தரவு பாதுகாப்பு மற்றும் எரிசக்தி கண்காணிப்பு ஆகியவற்றில் உலகளாவிய சிறந்த நடைமுறைகளை ஏற்றுக்கொள்வதைப் போலவே, இந்த விதிமுறைகளை வடிவமைப்பதில் தொழில்துறை பங்குதாரர்களுடனான ஒத்துழைப்பு முக்கியமானதாக இருக்கும்.
டெபோர்ஷி பாரத், எழுத்தாளர் மற்றும் S&R அசோசியேட்ஸ் (S&R Associates) என்ற சட்ட நிறுவனத்தில் ஆலோசகர்.