உங்கள் உள்ளீடுகளை சாட்போட்கள் (chatbot) எவ்வாறு நினைவுபடுத்துகின்றன? context windows களைப் புரிந்து கொள்ளுதல் -பிஜின் ஜோஸ்

 சாட்ஜிபிடி (ChatGPT) நம்முடன் ஈடுபாட்டுடன் உரையாடலாம். சாட்ஜிபிடியால்  (ChatGPT) பல கேள்விகளுக்கு சுவாரஸ்யமான பதில்களை கொடுக்க முடியும். அரட்டை இடைமுகம் (chat interface), மூலம் நீங்கள் பேசும் அமைப்பு WhatsApp அல்லது பிற குறுஞ்செய்தி செயலிகளைப் போன்றது. இந்த அமைப்பு, குறிப்பாக, GPT-3.5 அல்லது GPT-4,  செயற்கை நுண்ணறிவு (artificial intelligence (AI)) ஐப் பயன்படுத்துகிறது. இவை பெரிய மொழி மாதிரிகள் (large language model  LLM))  மூலம் சாட்போட்டை (chatbot) ஐ செயல்படச் செய்கிறது.  


சாட்பாட் (chatbot) நம்முடன் எவ்வாறு தொடர்பு கொள்கிறது என்று நீங்கள் ஆச்சரியப்படலாம். உரையாடலில் நீங்கள் முன்பு கூறியது எப்படி நினைவில் உள்ளது? சாட்போட்டின் (chatbot) நினைவகம்  context window எனப்படும் ஒன்றை அடிப்படையாகக் கொண்டது. நமது அனைத்து செய்திகளையும் அரட்டை இடைமுகத்தில் (chat interface) பார்க்கலாம். இருப்பினும், சாட்போட் (chatbot) அதே வழியில் வேலை செய்யாது. இது எந்த நேரத்திலும் குறிப்பிட்ட அளவு உரையை மட்டுமே  பார்க்க அல்லது  படிக்க முடியும். இந்த வரம்பு அதன் context window.


 context window பெரிதாக இருந்தால், ChatGPT போன்ற செயற்கை நுண்ணறிவானது சிறந்த பதில்களை தரும். 


 ’context windows’ என்றால் என்ன?


ஒரு செயற்கை நுண்ணறிவு (artificial intelligence (AI)) ஒரே நேரத்தில் செயலாக்கக்கூடிய உரையாடலின் அடையாள வில்லைகள் (tokens)  context window என்று அழைக்கப்படுகிறது.


2023 இல் OpenAI உருவாக்கும் காலக்கட்டத்தில், சாம் ஆல்ட்மேன் GPT-4 டர்போவை (GPT-4 Turbo)  அறிவித்தார், 128K அடையாள வில்லைகளின் மிகப்பெரிய context window உடன், தோராயமாக ஒரு புத்தகத்தின் 300 பக்கங்களை மொழிபெயர்ப்பதற்கு சமமானது. அடையாளகுறியாக்கம் (tokenization) என்பது  பெரிய மொழி மாதிரி (large language model (LLM)) போன்ற மாதிரிகளுக்கான தரவின் அடிப்படை அலகுகள் ஆகும். இது, ஒரு மாதிரி ஒரே நேரத்தில் கருதும் அதிகபட்ச உரையைக் குறிக்கிறது. அடையாள வில்லைகள் (tokens) பயன்படுத்தப்படும் அடையாளகுறியாக்கம் (tokenization) செயல்முறையைப் பொறுத்து சொற்கள், சொற்களின் பகுதிகள் அல்லது எழுத்துக்களாக இருக்கலாம்.


ஒரு விதியாக, ஒரு அடையாளவில்லை (token) என்பது ஆங்கில உரையின் நான்கு எழுத்துக்கள் அல்லது ஒரு வார்த்தையின் முக்கால்வாசி ஆகும், இது 75 சொற்களைச் சுற்றி 100 அடையாளகுறிகளை உருவாக்குகிறது. எனவே, 32,000 அடையாளவில்லைகள் (tokens) தோராயமாக 128,000 எழுத்துகளாக இருக்கும். 


உரை (text) எவ்வாறு அடையாளவில்லைகளாக (tokens) மாற்றம் செய்யப்படுகிறது என்பதைப் பார்க்க OpenAI ஒரு கருவியை வழங்குகிறது.  உதாரணமாக,  இந்தியாவின் தலைநகரம் புது டெல்லி (The capital of India is New Delhi) என்ற வாக்கியம் 8 டோக்கன்களுக்கு மொழிபெயர்க்கப்பட்டுள்ளது. வெவ்வேறு பெரிய மொழி மாதிரிகளுக்கு அடையாளவில்லைகள் மாறுபடும். 




’context windows’ ஏன் முக்கியம்?


கூகுள் டீப்மைண்ட் (Google DeepMind) ஆராய்ச்சியாளர்கள்  context windows களை முக்கியமானதாக வரையறுக்கின்றனர். ஏனெனில், அவை ஒரு செயற்கை நுண்ணறிவு (artificial intelligence (AI)) மாதிரிகள் அமர்வின் போது தகவல்களை நினைவில் கொள்ள உதவுகின்றன.


’context windows’ பெரிய மொழி மாதிரி (large language model (LLM))  போன்ற செயற்கை நுண்ணறிவு மாதிரிகள், மொழிகளின் சூழலை நன்கு புரிந்துகொள்ள இவை உதவுகின்றன. இதனால், அவை மனிதர்களைப் போலவே பதில்களைப் புரிந்துகொள்ளவும் உருவாக்கவும் உதவுகிறது.


’context windows’ எவ்வாறு செயல்படுகின்றன?


’context windows’ உரையின் மீது,  ஒரு நேரத்தில் ஒரு வார்த்தையில் கவனம் செலுத்துவதன் மூலமும், ஒரு புத்தகத்தைப் படிப்பது போலவும் செயல்படுகின்றன. ’context windows’ -இன் அளவு செயற்கை நுண்ணறிவு அமைப்பு எவ்வளவு சூழலைப் புரிந்துகொள்கிறது என்பதை தீர்மானிக்கிறது. ஒவ்வொரு வார்த்தையும் அதன் அர்த்தத்திற்கான குறியீடு போன்றது. மேலும்,  நிரல் சாளரத்தில் உள்ள சொற்களைப் பார்த்து அவை எவ்வாறு தொடர்புடையவை என்பதைப் புரிந்துகொள்கிறது.


அளவில் என்ன இருக்கிறது?


GPT-128 டர்போக்கான 4K அடையாளவில்லை (token) அளவை சாம் ஆல்ட்மேன் (Sam Altman) அறிவித்த சில மாதங்களுக்குப் பிறகு, கூகுள் செயற்கை நுண்ணறிவு மாதிரி - ஜெமினி 1.5 புரோ (Google’s artificial intelligence AI model -Gemini 1.5 Pro))  1 கோடி டோக்கன்கள் வரை ‘Context windows’ இல் அறிமுகப்படுத்தியது.


ஒரு பெரிய  Context windows ஐ வைத்து செயற்கை நுண்ணறிவு மாதிரியின் செயல்திறனை மேம்படுத்தலாம். ஆனால், இது நன்மைகள் அதிகரிப்பதை நிறுத்தும் ஒரு கட்டத்தை எட்டக்கூடும். சில நேரங்களில், பொருத்தமற்ற தகவலை அளிக்க கூடும்.


எனவே, ஒரு பெரிய  Context windows இன் நன்மைகள் என்னவென்றால், அவை செயற்கை நுண்ணறிவு மாதிரிகள் கூடுதல் தகவல்களைக் குறிப்பிடவும், கதையின் ஓட்டத்தைப் புரிந்துகொள்ளவும், நீண்ட பத்திகளில் ஒத்திசைவை பராமரிக்கவும் மற்றும் சூழலுக்கு ஏற்ற பதில்களை உருவாக்கவும் அனுமதிக்கின்றன.


இருப்பினும், பெரிய Context windows மற்றும் பயன்பாட்டின் போது அதிகமான கணக்கீட்டு சக்தி (computational power) தேவைப்படுகிறது. வன்பொருள் தேவைகள் மற்றும் செலவுகள் அதிகரிப்பதும் ஒரு பிரச்சனையாக பார்க்கப்படுகிறது .


அவை மீண்டும் மீண்டும் அல்லது முரண்பாடான பதில்களுக்கும் வழிவகுக்கும். அதிக கணக்கீட்டு சக்தியைப் பயன்படுத்துவது கார்பன்பயன்பாட்டை (carbon footprint) அதிகரிக்கிறது, இது நிலையான செயற்கை நுண்ணறிவு (artificial intelligence AI) குறித்து கவலை அளிக்கிறது. பெரிய Context windows கொண்ட பயிற்சி மாதிரிகளுக்கும் நிறைய நினைவகம் மற்றும் சேமிப்பகம் தேவை. இது பெரிய நிறுவனங்களுக்கான முதலீட்டை மட்டுப்படுத்தலாம். கூடுதலாக, அவர்களுக்கு கணிசமான நினைவகம் மற்றும் சேமிப்பிடம் தேவைப்படுகிறது, இது பெரிய நிறுவனங்களுக்கு மட்டுமே சாத்தியமாகும்.




Original article:

Share: