நீதிமன்றத்தில் செயற்கை நுண்ணறிவுப் பயன்பாட்டிற்கு பாதுகாப்பு வழிகாட்டுதல்களை அமைக்கவும் -லியா வர்கீஸ், ஸ்மிதா மட், டோனா மேத்யூ

 நீதிமன்றங்களில் செயற்கை நுண்ணறிவின் பயன்பாடு மிகவும் பொதுவானதாக இருப்பதால், அதன் பாதுகாப்பான மற்றும் பொறுப்பான பயன்பாட்டை உறுதி செய்ய இந்த கட்டமைப்புகள் தேவை.


இந்த ஆண்டு ஜூலையில், மாவட்ட நீதித்துறையால் செயற்கை நுண்ணறிவு (AI) பயன்பாட்டிற்கான வழிகாட்டுதல்களின் தொகுப்பை கேரள உயர் நீதிமன்றம் வெளியிட்டது. இந்தக் கொள்கை "மாவட்ட நீதித்துறையில் செயற்கை நுண்ணறிவு கருவிகளைப் பயன்படுத்துவது தொடர்பான கொள்கை" என்று அழைக்கப்படுகிறது. நீதித்துறை செயல்முறைகளில் AI பயன்பாட்டை நேரடியாக நிவர்த்தி செய்வது மற்றும் கடுமையான பாதுகாப்புகளை அமைப்பது போன்ற நாட்டின் முதல் கொள்கையாக, இது சரியான நேரத்தில் அமைந்துள்ளது. 


AI கருவியானது, ஆவணங்களை மொழிபெயர்ப்பதில் இருந்து குறைகளை அடையாளம் காண்பது வரை, வேகம் மற்றும் செயல்திறனை மேம்படுத்தும் என்று எதிர்பார்க்கப்படுகிறது. மேலும், ஏற்கனவே ஐந்து கோடி வழக்குகள் நிலுவையில் உள்ள நீதிமன்ற அமைப்புக்கு இத்தகைய மேம்பாடுகள் மிகவும் ஊக்கமாக அமையும்.


சிக்கல்கள் 


ஆனால், AI-இயக்கப்பட்ட மொழிபெயர்ப்புகள் (AI-enabled translations) மற்றும் நகல் எடுத்தல் (transcription) போன்ற சிக்கலான வேலைகள் ஆபத்துகள் இல்லாமல் இல்லை. எடுத்துக்காட்டாக, இந்திய உச்சநீதிமன்ற நீதிபதி ஒருவர் தவறான மொழிபெயர்ப்புக்கான உதாரணத்தைக் கொடுத்தார். 'விடுமுறை வழங்கப்பட்டது' (leave granted) என்ற சொற்றொடர் இந்தியில் 'சுட்டி ஸ்வீகார்' (chhutti sweekaar) என்று மொழிபெயர்க்கப்பட்டது. அதாவது, 'விடுமுறை அங்கீகரிக்கப்பட்டது' (holiday approved) என்பதாகும். 


மற்றொரு வழக்கில், ”நோயல் அந்தோணி கிளார்க் vs கார்டியன் நியூஸ் & மீடியா லிமிடெட் (2025) EWHC 550 (KB)”, ஒரு AI நகல் எடுத்தல் கருவி தொடர்ந்து பிழைகளைச் செய்தது. இது உரிமைகோருபவரின் பெயரான "நோயல்" ஐ "இல்லை" என்று நகல் எடுத்தது. 


OpenAI-யின் விஸ்பர் (Whisper), AI-இயங்கும் பேச்சு அங்கீகார அமைப்பு, எப்போதாவது முழு சொற்றொடர்களையும் வாக்கியங்களையும் உருவாக்குவதாக அல்லது "மாயத்தோற்றம்" செய்வதாக குறிப்பிட்டது. குறிப்பாக, மக்கள் தங்கள் வார்த்தைகளுக்கு இடையில் நீண்ட நேரம் இடைநிறுத்தப்பட்டபோது இது நடந்தது.


AI-அடிப்படையிலான சட்ட ஆராய்ச்சியில் தேடுபொறி சார்பு பயனர்களை அவர்களின் சொந்த பயன்பாட்டு முறைகளால் வடிவமைக்கப்பட்ட முடிவுகளை நோக்கி அவர்களைத் தள்ளக்கூடும். 


இது சில பொருத்தமான முன்னுதாரணங்களை மறைக்கலாம் அல்லது கண்ணுக்குத் தெரியாததாக மாற்றலாம். Journal of Empirical Legal Studies இதழில் வெளியிடப்பட்ட ஒரு ஆய்வில், பெரிய மொழி மாதிரிகள் (LLM) கற்பனையான வழக்கு சட்டங்களை உருவாக்கி, உரிமைகோரல்களை ஆதரிக்க தவறான மூலங்களை மேற்கோள் காட்டலாம் எனக் குறிப்பிடப்பட்டுள்ளது.


மிகவும் தீவிரமான கட்டமைப்பு நிலையில், AI, மனித தீர்ப்பு, குறிப்பிட்ட சூழல் மற்றும் நீதித்துறை முடிவெடுப்பதில் தாக்கத்தை ஏற்படுத்தும் முன்னுதாரணங்களின் பொருத்தம் ஆகியவற்றின் தன்மையை புறக்கணித்து, விதி அடிப்படையிலான அனுமானங்களாக தீர்ப்பை AI குறைக்கிறது.


சில சந்தைக் கருவிகள் தற்போது நீதிமன்றங்களில் வணிகரீதியான அடிப்படையில் சோதிக்கப்படுகின்றன. அதாவது, வாய்வழி வாதங்கள் மற்றும் சாட்சிகளின் நகல் எடுத்தல் ஆகியவை அடங்கும். இருப்பினும், பொதுவில் இல்லாத, உணர்திறன் வாய்ந்த அல்லது தனிப்பட்ட தரவை அணுகுதல், சேமித்தல் மற்றும் பயன்படுத்துவதற்கான தெளிவான காலக்கெடு, சாதனையின் அளவுருக்கள் அல்லது கட்டமைப்புகள் எதுவும் இல்லை. 


இதன் காரணமாக, அத்தகைய பைலட் திட்டங்களுக்கு (pilot projects) கவனமாக பரிசீலிக்கப்பட வேண்டும். சோதனையின் அடிப்படையில், நீதிமன்றங்களுக்கு வழங்கப்படும் AI கருவிகள் நிலையாக ஏற்றுக்கொள்வதற்கான தெளிவான பாதைகள் இல்லாமல் சார்புகளை உருவாக்கக்கூடும். மேலும், புதிய தொழில்நுட்ப மாதிரிகள் நம்பகமான இணைய இணைப்பு மற்றும் சரியான வன்பொருள் போன்ற அத்தியாவசிய உள்கட்டமைப்பைக் கோருகின்றன.


நீதிமன்றங்கள் முழுவதும் AI சேவைகளுக்கான பொதுவில் கிடைக்கும் ஒப்பந்த புள்ளிகளின் விரைவான பகுப்பாய்வு, ஏற்றுக்கொள்ளும் எச்சரிக்கையுடன் இருந்தாலும், நீதிமன்றங்கள் நெறிமுறை மற்றும் சட்ட அபாயங்களை நிவர்த்தி செய்ய இடர் மேலாண்மைக் கட்டமைப்பை வடிவமைக்க வேண்டிய அவசியமில்லை என்பதைக் காட்டுகிறது. 


ஓய்வுபெற்ற நீதிபதிகள், வழக்கறிஞர்கள் மற்றும் மொழிபெயர்ப்பாளர்களின் AI-மொழிபெயர்க்கப்பட்ட தீர்ப்புகளை நேரடியாக சரிபார்ப்பது போன்ற மனித சோதனைகள் (Human checks) மற்றும் சமநிலைகள் (balances) நடைமுறையில் இருக்கும்போது, ​​AI அமைப்புகள் புதிய சூழலில் புதிய தகவல்களை எதிர்கொள்வதால், கிடைக்கக்கூடிய தரவுகளிலிருந்து பிழையின் சாத்தியக்கூறுகளுடன் கற்றுக்கொள்கின்றன.


 அறிஞர்கள் குறிப்பிடுவது என்னவென்றால், LLM-களில் உள்ள மாயத்தோற்றங்கள் ஒரு குறைபாடு அல்ல, மாறாக ஒரு பண்பு ஆகும், இது மனித மேற்பார்வை மற்றும் உயர்-ஆபத்து சூழ்நிலைகளில் கவனமான பயன்பாட்டை தேவைப்படுத்துகிறது.


நீதிமன்றங்கள் தங்கள் அன்றாட வேலைகளில் AI பயன்பாட்டை அதிகளவில் ஒருங்கிணைத்து வருவதால், AI-ன் நெறிமுறை அபாயங்கள் மற்றும் சட்ட அமைப்பின் சிக்கலான கலவையானது அபாயங்களைக் குறைக்க பயனுள்ள பாதுகாப்புத் தடுப்புகளை அவசியமாக்குகிறது. நீதிமன்ற நடைமுறைகளில் பெரும்பாலானவை காகித அடிப்படையிலானதாக இருப்பதால், AI பயன்பாட்டை மேம்படுத்துவதற்கான எந்தவொரு மாற்றமும் ஏற்கனவே குறைபாடுள்ள அமைப்பை (imperfect system) மேலும் பலவீனப்படுத்தக்கூடாது.


முதலாவதாக, நீதிபதிகள், நீதிமன்ற ஊழியர்கள் மற்றும் வழக்கறிஞர்கள் மத்தியில் முக்கியமான AI கல்வியறிவு தேவை. AI கருவிகளைப் பயன்படுத்துவதற்கான திறன் மேம்பாட்டிற்குக் கூடுதலாக, பயன்படுத்தப்பட்ட அமைப்புகளின் வரம்புகளைப் புரிந்து கொள்ள அவர்களுக்கு பயிற்சி தேவை. AI நிர்வாக நிபுணர்களின் உதவியுடன் நீதித்துறை கல்வி அமைப்புகள் மற்றும் பார் சங்கங்கள் இந்தப் பயிற்சியை வழிநடத்தலாம்.


இரண்டாவதாக, ஆராய்ச்சி மற்றும் தீர்ப்பு எழுதுவதற்கு தனிப்பட்ட AI-ன் தனிப்பட்ட பயன்பாட்டை வடிவமைக்க வழிகாட்டுதல்கள் தேவை. நீதிமன்றம் தீர்ப்பளிக்கும் செயல்பாட்டில் AI பயன்படுத்தப்பட்டால், வழக்கறிஞருக்கு தகவல் தெரிவிக்க உரிமை இருக்க வேண்டும். இதேபோல், சில நீதிமன்ற அறைகளில் AI பயன்படுத்தப்படுகிறதா என்பதை அறிய வழக்குத் தொடுப்பவர்கள் (Litigants) மற்றும் வழக்கறிஞர்களுக்கு (lawyers) உரிமை உண்டு. 


AI பயன்பாட்டிலிருந்து எழும் பிழைகளுக்கான சாத்தியக்கூறுகளைக் கருத்தில் கொண்டு, பாதுகாப்புகள் அல்லது மனித மேற்பார்வை குறித்து ஏதேனும் கவலைகள் இருந்தால், வழக்குத் தொடுப்பவர்கள் பைலட் திட்டத்திலிருந்து (pilot projects) விலக அனுமதிக்கப்படலாமா அல்லது முழுமையாகப் பயன்படுத்தப்பட்ட AI-ஐ அனுமதிக்கலாமா என்பதை நீதிமன்றங்கள் ஆராய வேண்டும்.


மூன்றாவதாக, நீதிமன்றங்கள் தரப்படுத்தப்பட்ட கொள்முதல் வழிகாட்டுதல்களைப் பின்பற்ற வேண்டும். இந்த வழிகாட்டுதல்கள் ஒரு AI அமைப்பு எவ்வளவு நம்பகமானது மற்றும் அது பணிக்கு ஏற்றதா என்பதை மதிப்பிடுவதற்கு உதவும். கொள்முதலுக்கு முன், நீதிமன்றங்கள் சரியான சிக்கலை அடையாளம் காண நடவடிக்கை எடுக்க வேண்டும். 

AI உண்மையிலேயே சிறந்த தீர்வா என்பதையும் அவர்கள் சரிபார்க்க வேண்டும். கொள்முதல் கட்டமைப்புகள் முக்கியமான தொழில்நுட்ப அளவுகோல்களை மதிப்பிட உதவும். இதில் விளக்கக்கூடிய தன்மை, தரவு மேலாண்மை மற்றும் இடர் குறைப்பு ஆகியவை அடங்கும்.


மின்னணு நீதிமன்றங்கள் திட்டத்தில்


நீதிபதிகள் மற்றும் பதிவேட்டின் வழக்கமான நிபுணத்துவத்திற்கு அப்பாற்பட்ட விற்பனையாளர் இணக்கம் (vendor compliance) மற்றும் செயல்திறனைக் கண்காணிக்க முடிவெடுப்பவர்களுக்கு இந்த கட்டமைப்புகள் உதவும். மின்னணு நீதிமன்றங்கள் (eCourts) திட்டத்தின் மூன்றாம் கட்டத்திற்கான தொலைநோக்கு ஆவணம் (e-Committee, இந்திய உச்ச நீதிமன்றம்) தொழில்நுட்ப அலுவலகங்களின் தேவையைக் குறிப்பிடுகிறது. இந்த அலுவலகங்கள் டிஜிட்டல் தீர்வுகளை மதிப்பிடுதல், ஏற்றுக்கொள்ளுவது மற்றும் மேற்பார்வையிடுவதில் நீதிமன்றங்களுக்கு வழிகாட்டும். 


இத்தகைய கட்டமைப்பு, AI பயன்பாடு மற்றும் ஏற்புத்தன்மை குறித்த முடிவெடுப்பதற்கு உதவுவதற்கும் ஆதரவளிப்பதற்கும் ஒரு வழியாகும், இது தொழில்நுட்ப நிபுணத்துவத்தில் உள்ள இடைவெளிகளை சமாளிக்க உதவுகிறது. பிரத்யேக நிபுணர்கள், AI கருவிகளை விரிவான திட்டமிடலின் ஒரு பகுதியாக ஏற்றுக்கொள்வதற்கு நீதிமன்றங்களுக்கு தெளிவான வழிகாட்டுதலை வழங்க முடியும். நீதிமன்றங்கள் மெதுவாக AI-ஐ ஏற்றுக்கொள்வதை நோக்கி நகரும்போது, ​​முக்கிய நோக்கத்தை மறந்துவிடக் கூடாது. 


அமைப்பில் AI-ன் குறிக்கோள் நீதியை வழங்குவதாகும். தொழில்நுட்பம் விரைவாக மாறி வருகிறது, எனவே நீதிமன்றங்களில் AI எவ்வாறு பயன்படுத்தப்பட வேண்டும் என்பதற்கான தெளிவான வழிகாட்டுதல்கள் தேவை. வழக்குகளை தீர்ப்பளிக்கும் செயல்முறையின் மையத்தில் இருக்கும் நுணுக்கமான பகுத்தறிவு மற்றும் மனித முடிவெடுக்கும் தன்மையை மறைத்துவிடாமல் இருப்பதை உறுதிசெய்ய அவசியம்.


லியா வர்கீஸ் பெங்களூருவின் DAKSH-ல் பணிபுரிகிறார். ஸ்மிதா மட் பெங்களூருவில் உள்ள DAKSH-இல் பணிபுரிகிறார். டோனா மேத்யூ கோவாவில் உள்ள டிஜிட்டல் ஃபியூச்சர்ஸ் ஆய்வகத்தில் பணிபுரிகிறார்.



Original article:

Share: