முறையாக எழுதப்படாத மனுக்கள், சரியான பகுப்பாய்வின்றி அளவுக்கு அதிகமாக மேற்கோள்களைப் பயன்படுத்துதல் மற்றும் பின்னணியைப் புரிந்து கொள்ளாமல் தீர்ப்பு முன்னுதாரணங்களை மேலோட்டமாகப் பயன்படுத்துதல் போன்றவை செயற்கை நுண்ணறிவுத் தொழில்நுட்பம் உருவாவதற்கு முன்பே இருந்தன. சொல்லப்போனால், ஏற்கனவே இருந்து வரும் இந்த பலவீனத்தை தற்போது செயற்கை நுண்ணறிவுத் தொழில்நுட்பமானது வெளிக்காட்டியுள்ளது.
இந்த மாத தொடக்கத்தில், இந்தியத் தலைமை நீதிபதி சூர்யா காந்த் தலைமையிலான உச்ச நீதிமன்ற அமர்வு, செயற்கை நுண்ணறிவு (Artificial Intelligence) கருவிகளின் உதவியுடன் தயாரிக்கப்பட்ட மனுக்களில் போலி வழக்கு மேற்கோள்கள் இடம்பெறுவது குறித்து தனது கவலையை வெளிப்படுத்தியது. இந்த நடைமுறையை "அதிர்ச்சியளிக்கக்கூடியது" மற்றும் "முற்றிலும் தேவையற்றது" என்று குறிப்பிட்ட தலைமை நீதிபதி, இது செயற்கை நுண்ணறிவுத் தொழில்நுட்பத்தால் ஏற்படும் ஆபத்துகளை மட்டுமல்லாமல், வழக்கறிஞர்களின் தொழில்முறை சார்ந்த ஒரு தீவிரப் பிரச்சினையையும் சுட்டிக்காட்டுவதாகக் கூறினார். உண்மையில், செயற்கை நுண்ணறிவுத் தொழில்நுட்பத்தைப் பயன்படுத்துவது பிரச்சினையல்ல என்றும் அதை கவனமாகப் பயன்படுத்தினால் அன்றாட வேலைப் சுமைகளைக் குறைத்து ஆய்வுகளுக்கு உதவியாக இருக்கும். ஆனால், செயற்கை நுண்ணறிவு தொழில்நுட்பம் உருவாக்கும் தகவல்களை கண்மூடித்தனமாக நம்புவதும், குறிப்பாக இல்லாத வழக்கு விவரங்களைச் சேர்ப்பதும்தான் உண்மையான சிக்கல் என்றும் தெரிவிக்கின்றனர். இதுவே தொழில்நுட்ப ரீதியாக மாயத்தோற்றம் அல்லது பிழையான தகவல் உருவாக்கம் (Hallucination) என்று கூறப்படுகிறது.
இந்திய நீதிமன்றங்கள் இத்தகைய சூழல்களை எதிர்கொள்வது இது முதல் முறையல்ல. கடந்த ஆண்டு நவம்பர் மாதம், உச்சநீதிமன்றத்தில் தாக்கல் செய்யப்பட்ட ஒரு பதில் மனுவில், உண்மையில் இல்லாத சில தீர்ப்புகள் செயற்கை நுண்ணறிவுத் தொழில்நுட்பம் மூலம் உருவாக்கப்பட்டிருந்தது கண்டறியப்பட்டது. அதேபோல், வருமான வரி அதிகாரி ஒருவர் வழங்கிய தீர்ப்புகளில் மேற்கோள் காட்டப்பட்ட முந்தைய வழக்குகள் போலியானவை என்பதை மும்பை உயர்நீதிமன்றம் கண்டுபிடித்தது. கர்நாடகாவிலும் ஒரு நீதிபதி தனது உத்தரவை எழுதும்போது செயற்கை நுண்ணறிவுத் தொழில்நுட்பம் உருவாக்கிய தவறான தீர்ப்புகளைப் பயன்படுத்தியதாகத் தெரிகிறது. இச்சம்பவங்கள் அனைத்தும், செயற்கை நுண்ணறிவுத் தொழில்நுட்பங்கள் தரும் தகவல்களைச் சரிபார்க்காமல் அப்படியே உண்மை என்று நம்புவது வழக்கறிஞர்களுக்கு மட்டுமல்ல, ஒட்டுமொத்த நீதித்துறைக்கே பாதிப்பை ஏற்படுத்தும் என்பதை உணர்த்துகின்றன.
இது இந்தியாவுக்கு மட்டுமே உரிய பிரச்சனை அல்ல என்றும் உலகின் பிற நாடுகளிலும் உள்ள நீதிமன்றங்கள் இத்தகைய சிக்கல்களை எதிர்கொண்டுள்ளதாகவும் கூறப்படுகிறது. உதாரணமாக, அமெரிக்காவில் 'ரோபர்டோ மாதா vs ஏவியங்கா' (Roberto Mata vs Avianca) என்ற வழக்கில், ஒரு வழக்கறிஞர் ChatGPT உருவாக்கிய போலி சட்ட முன்னுதாரணங்களை வழங்கியதற்காக அந்நாட்டு மத்திய நீதிமன்றம் அவருக்கு அபராதம் விதித்தது. அதேபோல் இங்கிலாந்தில், 89 மில்லியன் பவுண்ட் இழப்பீடு கோரப்பட்ட ஒரு முக்கிய வணிக வழக்கு உட்பட பல வழக்குகளில், போலியாக உருவாக்கப்பட்ட சட்ட மேற்கோள்கள் கண்டறியப்பட்டுள்ளன. இந்த உதாரணங்கள் உலகளாவிய ஒரு கசப்பான உண்மையை உணர்த்துகின்றன. அதாவது, செயற்கை நுண்ணறிவு (Generative AI) கருவிகள் மிகவும் சக்திவாய்ந்தவை என்றாலும், அவை நம்பகமான சட்டத் தரவுத்தளங்கள் அல்ல என்பதைத் தெளிவுபடுத்துகின்றனர். எனவே அவற்றை மனிதர்கள் எப்போதும் தீர ஆராய்ந்து சரிபார்ப்பது அவசியம் என்றும் தெரிவிக்கின்றனர்.
சர்வதேச அளவில், நீதிமன்றங்கள் இதற்கு இரண்டு முக்கிய வழிகளில் பதிலளித்துள்ளன. முதலாவதாக, சரிபார்க்கப்படாத செயற்கை நுண்ணறிவுத் தொழில்நுட்பத்தால் உருவாக்கப்பட்ட தகவல்களைச் சமர்ப்பிக்கும் வழக்கறிஞர்களுக்கு அபராதம் அல்லது தடைகளை விதித்துள்ளன. இரண்டாவதாக, நீதிமன்றங்களும் தொழில்முறை அமைப்புகளும் புதிய வழிகாட்டுதல்களை வெளியிட்டுள்ளன; இதன்படி வழக்கறிஞர்கள் தாங்கள் செயற்கை நுண்ணறிவுத் தொழில்நுட்பத்தைப் பயன்படுத்தவில்லை என்றோ, அல்லது செயற்கை நுண்ணறிவுத் தொழில்நுட்பத்தின் மூலம் உருவாக்கப்பட்ட உள்ளடக்கங்கள் ஏதேனும் இருந்தால் அவை தங்களால் சரிபார்க்கப்பட்டது என்றோ சான்றளிக்க வேண்டும் என்றும் தெரிவித்துள்ளன.
இந்தியாவில் தற்போதைய நிலையில் நீதிமன்ற வழக்குகளில் செயற்கை நுண்ணறிவை (Generative AI) பயன்படுத்துவது குறித்து முழுமையான விதிகள் ஏதும் வரையறுக்கப்படவில்லை. இந்திய உச்சநீதிமன்றம் இது தொடர்பாக ஒரு வெள்ளை அறிக்கையை வெளியிட்டுள்ளதுடன், கேரள உயர்நீதிமன்றம் போன்ற சில நீதிமன்றங்கள் தங்களின் நிர்வாக மற்றும் தொழில்நுட்பப் பணிகளுக்காகப் பரந்த செயற்கை நுண்ணறிவுக் கொள்கைகளை உருவாக்கிப் சாதகமான நடவடிக்கைகளை எடுத்துள்ளன. அதே சமயம், செயற்கை நுண்ணறிவுத் தொழில்நுட்பம் வழங்கும் பதில்களைக் கண்மூடித்தனமாக நம்ப வேண்டாம் என்றும் எச்சரித்துள்ளன. இருப்பினும், பல்வேறு நிறுவனங்களிடமிருந்து ஒருங்கிணைந்த மற்றும் விரிவான வழிகாட்டுதல்களும், தவறான பயன்பாட்டைத் தடுப்பதற்கான முறையான கட்டுப்பாட்டு நடவடிக்கைகளும் இன்னும் தேவைப்படுகின்றன.
இதன் முக்கியப் பொறுப்பு வழக்கறிஞர்களிடமே உள்ளது. செயற்கை நுண்ணறிவால் தற்செயலாக உருவாக்கப்பட்டிருந்தாலும், தவறான தீர்ப்பு முன்னுதாரணங்களை நீதிமன்றத்தில் சமர்ப்பிப்பது வெறும் தொழில்நுட்பப் பிழை மட்டுமல்ல என்றும் அது ஒரு நேர்மையற்ற செயல் மற்றும் நீதிமன்றத்திற்கு ஒரு வழக்கறிஞர் செய்ய வேண்டிய கடமையை மீறும் செயல் என்றும் கூறப்படுகிறது. உச்சநீதிமன்றத்தைப் பொறுத்தவரை, மனுக்களைத் தாக்கல் செய்யும் பொறுப்பைக் கொண்டுள்ள 'பதிவுபெற்ற வழக்கறிஞர்களுக்கு' (Advocates-on-Record (AOR)) இந்தப் பொறுப்பு இன்னும் அதிகம் இருப்பதாகவும் சுட்டிக்காட்டியுள்ளது. பொறுப்புக்கூறலை உறுதிப்படுத்துவதற்காகவே இந்த 'பதிவுபெற்ற வழக்கறிஞர்' முறை உருவாக்கப்பட்டுள்ளது. நீதிமன்ற ஆவணங்களில் செயற்கை நுண்ணறிவுத் தொழில்நுட்பத்தால் உருவாக்கப்பட்ட தவறுகள் இடம் பெற்றால், அது தொழில்நுட்பத் தோல்வி அல்ல, மாறாக மேற்பார்வை செய்யத் தவறியதே ஆகும் என்றும் கூறியுள்ளது. எனவே இதற்குத் தகுந்த தண்டனை அல்லது தடுப்பு நடவடிக்கை அவசியமாகும். அதேபோல், இந்திய வழக்கறிஞர் சங்கம் (Bar Council of India (BCI)) மற்றும் பிற ஒழுங்குமுறை அமைப்புகள், சட்டத்துறையில் செயற்கை நுண்ணறிவுத் தொழில்நுட்பத்தைப் பொறுப்புடன் பயன்படுத்துவது குறித்த தெளிவான வழிகாட்டுதல்களை வழங்க வேண்டும். இதற்கான தீர்வு செயற்கை நுண்ணறிவுக்குத் தடை விதிப்பது அல்ல என்றும் மாறாகப் பொய்யான மேற்கோள்கள் உருவாகும் அபாயம் உள்ளிட்ட அதன் வரம்புகளைப் புரிந்துகொள்ள வழக்கறிஞர்களுக்குப் பயிற்சி அளிப்பதே ஆகும்.
அதே நேரத்தில், நீதிமன்றம் தனது சொந்த பங்களிப்பைக் குறித்தும் சிந்திக்க வேண்டும். அண்மைக் காலங்களில், குறிப்பாக 'சிறப்பு விடுப்பு மனுக்களில்' (Special Leave Petitions), தெளிவான சட்ட ரீதியான காரணங்களுக்குப் பதிலாக நீண்ட மேற்கோள்கள் மட்டுமே இடம் பெறுவதாகவும், இதனால் முறையான சட்ட ஆவணங்களைத் தயாரிக்கும் கலை (art of legal drafting) நலிவடைந்து வருவதாகவும் நீதிபதி பாக்சி விசாரணையின் போது கவலை தெரிவித்தார். இந்த விவகாரமானது வெறும் செயற்கை நுண்ணறிவு (AI) குறித்த விவாதங்களுக்கு அப்பாற்பட்ட ஒரு முக்கியப் பிரச்சினையாகப் பார்க்கப்படுகிறது.
செயற்கை நுண்ணறிவு (Generative AI) உருவாவதற்கு முன்பே, தரமற்ற முறையில் மனுக்களைத் தயாரிப்பது, முறையான பகுப்பாய்வின்றி அளவுக்கு அதிகமான மேற்கோள்களைக் கையாளுவது மற்றும் சூழலைப் புரிந்து கொள்ளாமல் மேலோட்டமாக முன்மாதிரித் தீர்ப்புகளைப் பயன்படுத்துவது போன்ற பழக்கங்கள் நடைமுறையில் இருந்தன. இருப்பினும், செயற்கை நுண்ணறிவுத் தொழில்நுட்பத்தின் வருகை இந்த பலவீனங்களை வெளிச்சம் போட்டுக்காட்டியுள்ளது. துல்லியமான வாதங்களைவிட நீளமான பக்கங்களுக்கும், தெளிவான சிந்தனையைவிட இயந்திரத்தனமான மேற்கோள்களுக்கும் முக்கியத்துவம் அளிக்கும் சட்டக் கலாச்சாரமே இத்தகைய குறுக்கு வழிகளை ஊக்குவிக்கிறது. மேலும், இதில் நிறுவன ரீதியான சிக்கலும் உள்ளது. நீதிமன்றங்கள் சில சமயம் மனுக்களின் தரத்தை முறையாக வலியுறுத்தாமல் அவற்றை ஏற்றுக்கொள்வதால், சட்ட வல்லுநர்களிடையே துல்லியமாகச் செயல்பட வேண்டிய அவசியம் குறைகிறது. தெளிவான வழக்குக் காரணம், தொடர்புடைய உண்மைகள் மற்றும் குறிப்பிட்ட சட்டப்பிரிவுகள் போன்ற முறையான விதிகளைப் பின்பற்றுவது மிகவும் அவசியமாகும். இந்த விதிகளைத் துல்லியமாக நடைமுறைப்படுத்தினால், மனிதர்கள் உருவாக்கினாலும் அல்லது இயந்திரங்கள் உருவாக்கினாலும், மேலோட்டமான மற்றும் தரமற்ற மனுக்கள் உருவாவதை இயற்கையாகவே தடுத்து நிறுத்த முடியும் என்று கூறப்படுகிறது.
ஸ்வப்னில் திரிபாதி, எழுத்தாளர் மற்றும் விதி சட்டக் கொள்கை மையத்தில் உள்ள அரசியலமைப்பு சட்ட மையமான சர்க்காவை வழிநடத்துகிறார்.
Original article : Hallucinations in the Supreme Court: Poor drafting isn’t just an AI problem. -Swapnil Tripathi