டிஜிட்டல் கடன் சேவையில் செயற்கை நுண்ணறிவை (AI) பொறுப்புடன் பயன்படுத்துதல் -பெனி சக், நீரஜ் சிபல்

 நேர்மை (Fairness), விளக்கக்கூடிய தன்மை (explainability) மற்றும் மனித-சுழற்சி கொள்கை (human-in-the-loop principle) ஆகியவை பொறுப்புள்ள செயற்கை நுண்ணறிவின் முக்கிய கூறுகள் ஆகும்.


கடன் வழங்குவதில் AI பரவலாகப் பயன்படுத்தப்படும்போது, பொறுப்பான கடன் வழங்குவதற்கு பொறுப்பான AI அவசியமாகிறது. கடன் வழங்கும் சூழலில், கடனளிப்பு மதிப்புச் சங்கிலியில் பயன்படுத்தப்படும் AI அமைப்புகள் கணினி அல்லது வாடிக்கையாளருக்கு ஆபத்துக்களை ஏற்படுத்தாது என்பதை பொறுப்பான செயற்கை நுண்ணறிவு (Responsible AI) உறுதி செய்கிறது.


முறையான அபாயங்கள் வெளிப்படும் ஒரு வழி, கடன் வழங்குபவர்கள் ஒரே காப்பீட்டு மாதிரியை நம்பியிருக்கும்போது எழும் அதிகப்படியான ஆபத்தாகும். இதனால், பல்வகைப்படுத்தலில் இருந்து நிலைத்தன்மை ஆதாயங்களை இழக்கிறார்கள்.


வாடிக்கையாளர் அபாயங்களில் பாகுபாடு, தனியுரிமை மீறல்கள் மற்றும் வாடிக்கையாளரின் நிதி ஆரோக்கியத்தில் எதிர்மறையான விளைவுகள் ஆகியவை அடங்கும். வாடிக்கையாளர்கள் தங்களால் வாங்க முடியாத கடன்களை எடுக்கும்போது இந்த சிக்கல்கள் ஏற்படலாம்.


இந்த அபாயங்களைத் தணிக்க அல்லது தடுக்கக்கூடிய மற்றும் மிகவும் வலுவான நிதி அமைப்பை உருவாக்கக்கூடிய பொறுப்புள்ள AI-ன் முன்னுதாரணத்திலிருந்து முக்கிய பரிந்துரைகளை இந்த பகுதி விவாதிக்கிறது.


நியாயமான காரணி


நியாயம் என்பது சார்பு மற்றும் பாகுபாட்டிலிருந்து மக்களைப் பாதுகாப்பதாகும். இது பொறுப்பான AI-ன் முக்கிய கொள்கைகளில் ஒன்றாகும். அதாவது, ஒத்த கடன் அபாயங்களைக் (similar credit risks) கொண்டவர்கள் ஒரே மாதிரியாக நடத்தப்பட வேண்டும் என்று இந்தக் கொள்கை கூறுகிறது. பாலினம் அல்லது சாதி போன்ற சமூக காரணிகளின் அடிப்படையில் அவர்களின் சிகிச்சை மாறக்கூடாது.


AI-உதவி முடிவுகள் (AI-assisted decisions) பெரும்பாலும் ஒருதலைப்பட்சமானவை என்று சந்தேகிக்கப்படுகின்றன. AI அமைப்புகள் செயல்படும் விதம் இதற்குக் காரணம். அவை முக்கியமாக தரவுகளில் வடிவங்கள் மற்றும் இணைப்புகளைத் தேடுகின்றன. ஆனால் அவை பொதுவாக அந்த வடிவங்கள் ஏன் உள்ளன என்பதைப் புரிந்துகொள்ள முயற்சிப்பதில்லை.


எனவே, ஒரு AI அமைப்பு தரவுகளில் பயிற்சி பெற்றால், அங்கு அதிகமான பெண்கள் கடன்களுக்காக நிராகரிக்கப்படுகிறார்கள். அந்த நிராகரிப்புகள் நியாயமானவை என்றாலும் கூட, AI இன்னும் அனைத்து பெண்களும் மோசமான கடன் அபாயங்களைக் கொண்டவர்கள் என்று கருதக்கூடும்.


சமீபத்திய அமெரிக்க ஆய்வு, பெரிய மொழி மாதிரிகள் (Large Language Models (LLM)) வெவ்வேறு கடன் ஒப்புதல் முடிவுகளை எடுக்கின்றன மற்றும் கருப்பு மற்றும் வெள்ளை அடமான விண்ணப்பதாரர்களுக்கு வெவ்வேறு வட்டி விகிதங்களை அதாவது, மற்ற அனைத்து காரணிகளும் ஒரே மாதிரியாக இருந்தாலும் கூட நிர்ணயிக்கின்றன என்பதைக் காட்டுகிறது. ஏனெனில், வரலாற்று நிதித் தரவு சார்புடையது. மேலும் AI-உதவி முடிவுகளும் சார்புடையதாக இருக்கலாம்.


எனவே, பொறுப்பான AI, நியாயமான கொள்கைகளை நிறுவ பயிற்சியாளர்களை கட்டாயப்படுத்துகிறது. நியாயமான கொள்கைகள் என்பது, AI அமைப்புகள் வரலாற்று சார்புகளில் இருந்து விடுபடுவதையும், அவை தங்களுடைய புதிய சார்புகளை அறிமுகப்படுத்தாமல் இருப்பதையும் உறுதிசெய்யும் நடைமுறைகளின் தொகுப்பைக் குறிக்கிறது. இந்த நடைமுறைகளில் பயிற்சிக்கான தரவை பக்கச்சார்பற்ற மற்றும்/அல்லது சீரானதாக தயார் செய்தல், பாதுகாப்பான சூழல்கள்/சாண்ட்பாக்ஸில் மாதிரியை இயக்குதல் மற்றும் AI அமைப்புகளை சார்புநிலைக்கு தொடர்ந்து தணிக்கை செய்தல் ஆகியவை அடங்கும்.


மேலும், குறிப்பிடப்பட்ட ஆய்வில், ஆசிரியர்கள் LLM-ஐ "எந்த சார்பையும் பயன்படுத்த வேண்டாம்" என்று பொதுவாக சொல்வதன் மூலம் இன சார்புகளைக் குறைத்தனர். இது ஆய்வில் வேலை செய்தாலும், உண்மையான உலக சூழ்நிலைகளில் இதைப் பயன்படுத்துவது கடினம். இது நியாயத்தன்மை கொள்கைகளின் முக்கியத்துவத்தை எடுத்துக்காட்டுகிறது. குறிப்பாக AI அமைப்புகளைப் பயன்படுத்துவதற்கு முன்பு, இந்தச் சார்பின் நிஜ வாழ்க்கை விளைவுகள் மீளமுடியாததாகவும் தீவிரமானதாகவும் இருக்கலாம்.


மாதிரி விளக்கமானது பொறுப்பான AI-ன் ஒரு முக்கிய அம்சமாகும். AI அமைப்புகளை மனிதர்களுக்குப் புரிய வைக்கும் நுட்பங்கள் இதில் அடங்கும். கடன் வழங்குவதில் விளக்கக்கூடிய AI மிகவும் முக்கியமானது. கடன் ஒப்புதல் மற்றும் நிராகரிப்புக்கான அளவுகோல்களை அறிய ஒழுங்குமுறை அதிகாரிகள் மற்றும் வாடிக்கையாளர்களுக்கு உரிமை உண்டு.


தாராளமயக் கடன் விதிமுறைகள் வாடிக்கையாளர் மற்றும் அமைப்பின் நிதி ஆரோக்கியத்திற்கு கடுமையான ஆபத்துகளை ஏற்படுத்துகின்றன. வாடிக்கையாளர்கள் திருப்பிச் செலுத்துவதில் சிரமங்களை எதிர்கொள்ளும்போது, ​​அவர்கள் அதிகக் கடனாளிகளாக மாறக்கூடும். இது பழைய கடன்களைத் திருப்பிச் செலுத்த புதிய கடன்களை எடுக்க கடன் வாங்குபவர்களை கட்டாயப்படுத்துகிறது. கடன் திருப்பிச் செலுத்தாதது கடன் வழங்குபவரின் பதவிப்பணி (போர்ட்ஃபோலியோ) தரத்தையும் பாதிக்கிறது.


தற்போதைய விதிகளின்படி, ஒரு கடன் வாங்குபவர் ஒரு கடனைத் திருப்பிச் செலுத்தத் தவறினால், அவர்களின் அனைத்து கடன்களும் செயல்படாததாகக் கருதப்படுகின்றன. இது சரியான காரணங்களுக்காக கடன்களை அங்கீகரிப்பது அல்லது நிராகரிப்பது மிகவும் முக்கியமானது. இதன் காரணமாக, கடன்-ஆபத்து மாதிரிகள் (credit-risk models) விளக்கக்கூடியதாக இருக்க வேண்டும் என்று ரிசர்வ் வங்கி கோருகிறது.


பொதுவான விளக்க முறைகளில் பகுதி சார்பு வரைபடங்கள் (Partial Dependency Plots (PDPs)) போன்ற அடிப்படை காட்சிப்படுத்தல்கள் அடங்கும். அவை ஒவ்வொரு உள்ளீடும் முடிவை எவ்வாறு பாதிக்கிறது என்பதைக் காட்டுகின்றன. தனிப்பட்ட மாறிகள் முடிவுக்கு எவ்வாறு பங்களிக்கின்றன என்பதையும் மேம்பட்ட முறைகள் விளக்கலாம்.


மாதிரிகள் மிகவும் சிக்கலானதாக மாறும்போது, ​​இந்த நுட்பங்கள் போதுமானதாக இருக்காது என்று நிபுணர்கள் கவலை தெரிவிக்கின்றனர். உலகெங்கிலும் உள்ள விதிமுறைகள் சிக்கலான தன்மைக்கும், விளக்கக்கூடிய தன்மைக்கும் இடையில் சமநிலையை ஏற்படுத்த முயற்சிக்கின்றன, இது பெரும்பாலும் துல்லியத்தை அதிகரிக்கிறது, இது எளிமையான AI அமைப்புகளுக்கு சாதகமாக இருக்கலாம்.


மனித-சுழற்சி (Human-in-the-loop)


இறுதியாக, பொறுப்புள்ள AI ஆனது, மனித-சுழற்சி (HITL) கொள்கைக்கு வலுவாக வாதிடுகிறது. இது, AI அமைப்புகளின் செயல்பாட்டில் மனிதனின் மேற்பார்வை மற்றும் மனித உள்ளீட்டிற்கு இடமளிக்கிறது. இது எப்போதும் வளர்ந்து வரும் நிதித் துறைக்கு மிகவும் முக்கியமானது. AI அமைப்புகள் பயிற்சியளிக்கப்பட்ட தரவுகளால் வரையறுக்கப்பட்டுள்ளன. கொடுக்கப்பட்ட பேரியல் பொருளாதார நிலைமைகளின் கீழ் பயிற்றுவிக்கப்பட்ட அமைப்புகள், அந்த நிலைமைகள் மாறும் போது, ​​விரைவாக தேவையற்றதாகவும், அபாயகரமானதாகவும் கூட ஆகலாம்.


கோவிட் தொற்றுநோய் இந்தப் பிரச்சினைகளைக் காட்டியது. "சாதாரண" பொருளாதார நிலைமைகளில் பயிற்சியளிக்கப்பட்ட AI மாதிரிகள் தொற்றுநோயின் போது தோல்வியடைந்தன. இது ஒரு எதிர்பாராத உலகளாவிய நிகழ்வாகும். இந்த நேரத்தில், கடன் வழங்குபவர்கள் மனித தீர்ப்பை நம்பியிருந்தனர் மற்றும் புதிய பொருளாதார யதார்த்தத்திற்கு ஏற்ப AI மாதிரிகளை மீண்டும் பயிற்சி செய்தனர். மாதிரிகள் அவற்றின் அடிப்படை அனுமானங்கள் முற்றிலும் சீர்குலைந்தால் தானாகவே கற்றுக்கொள்ள முடியாது.


மேலும், தொழில் ஆரம்ப கட்டத்தில் இருக்கும் போது மனித-சுழற்சி (HITL) பொருத்தமானது மற்றும் கணினிகள் கற்றுக்கொள்ள போதுமான பயிற்சி தரவு இல்லை. மனித-சுழற்சியை (HITL) நடைமுறைப்படுத்துவது, AI மனிதர்களுக்குப் புரியும் என்பதை உறுதிப்படுத்துவது மற்றும் மாதிரியின் விளைவுகளை மேற்பார்வையிடும் மனிதர்களை நியமிப்பது மற்றும் குறிப்பிடத்தக்க முடிவுகளைக் கொண்டிருப்பது ஆகியவை அடங்கும். மேலும் மேம்பட்ட அமைப்புகள், AI அமைப்பின் முடிவுகளை மனிதர்கள் மீறுவதற்கு இடமளிக்கின்றன.


கடன் வழங்குவதில் பொறுப்பான AI இன்று மிக முக்கியமானது. அதிகப்படியான கடன் மற்றும் போர்ட்ஃபோலியோ தரம் பற்றிய கவலைகள் அதிகரித்து வருகின்றன. ஒழுங்குமுறை அதிகாரிகள், கடன் வழங்குபவர்கள் மற்றும் வாடிக்கையாளர்கள் பழக்கமான ஆனால் கவலைக்கிடமான காலங்களை எதிர்கொள்கின்றனர்.


பிரச்சனைக்கு ஒரு தொழில்நுட்ப அம்சம் உள்ளது. எனவே, AI அமைப்புகளுக்கு பொறுப்பான AI கொள்கைகளைப் பயன்படுத்துவதன் மூலமும் தீர்வு பயனடையக்கூடும். பொறுப்பான AI-ஆல் வழங்கப்படும் பாதுகாப்புகள் பாரம்பரிய நடவடிக்கைகளுடன் இணைந்து செயல்படக்கூடும். மூலதன இருப்புக்களை அதிகரிப்பது போன்ற இந்த பாரம்பரிய நடவடிக்கைகள், பொறுப்பான AI-ஐப் பயன்படுத்துவதன் மூலம் மிகவும் பயனுள்ளதாக மாறும்.


துவாரா ஆராய்ச்சியில் சக், எதிர்கால நிதி முன்முயற்சிக்கு தலைமை தாங்குகிறார். சிபல் ஒரு AI நிபுணர் மற்றும் PwC இந்தியாவில் இயக்குநராகப் பணியாற்றுகிறார்.


Original article:
Share: