ஒரு புதிய MIT ஆய்வு ஒரு எச்சரிக்கையைக் கொண்டுள்ளது. பிரச்சினை செயற்கை நுண்ணறிவைப் பயன்படுத்தலாமா இல்லையா என்பது அல்ல, ஆனால் எப்படிப் பயன்படுத்துவது என்பதுதான்.
குறைந்தபட்சம் 15-ஆம் நூற்றாண்டின் நடுப்பகுதியிலிருந்து, அச்சுக்கலையின் (printing press) கண்டுபிடிப்புடன், எழுதப்பட்ட வார்த்தைகளின் உருவாக்கம் மற்றும் பரவல் தொடர்பான ஒவ்வொரு புதிய தொழில்நுட்பத்துடம் தொடர்பாக ஒரு கவலை எழுந்தது. பேனாக்கள், தட்டச்சு எந்திரங்கள், கணிணிகள், இணையம் மற்றும் தேடல் இயந்திரங்கள் மற்றும், மிக சமீபத்தில், ChatGPT போன்ற பெரிய மொழி மாதிரிகள் (Large Language Models (LLMs)) - ஒவ்வொரு தொழில்நுட்பமும் அதன் விமர்சகர்களால் சிந்தனை மற்றும் வார்த்தைக்கு இடையேயான தொடர்பின் தூய்மையை நீர்த்துப்போகச் செய்வதாக பார்க்கப்பட்டது. இந்த கவலை பெரிய மொழி மாதிரிகளின் திடீர் மற்றும் பரவலான எழுச்சி மற்றும் அறிவு உற்பத்தியால் ஏற்பட்டது. குறிப்பாக, மாணவர்கள் மற்றும் ஆராய்ச்சியாளர்களால் அவற்றின் பரவலான பயன்பாட்டுடன் உச்சத்தை அடைந்தது. முந்தைய தொழில்நுட்பங்களைப் போல் இல்லாமல், அவை எழுதுவதின் செயலுக்கு உதவிய கருவிகளாக இருந்தன அல்லது தேடல் இயந்திரங்களைப் போல, ஆராய்ச்சி மற்றும் குறிப்பீடுகளை எளிதாக்கின. மாசசூசெட்ஸ் தொழில்நுட்ப நிறுவனத்தின் (Massachusetts Institute of Technology (MIT)) சமீபத்திய ஆய்வில், ChatGPT-ஐ எழுதுவதற்குப் பயன்படுத்துவது "அறிவாற்றல் இரவலை" (cognitive debt) உருவாக்கக்கூடும் என்று கண்டறியப்பட்டுள்ளது. பயனர்கள் அதை அதிகமாகச் சார்ந்து இருக்கக்கூடும். மேலும், அவர்களுக்காக ஆழமாக சிந்திக்காமல் போகலாம்.
Nataliya Kosmyna மற்றும் பிற ஆராய்ச்சியாளர்கள் கட்டுரைகள் எழுத வேண்டிய சோதனை பங்கேற்பாளர்களை மூன்று குழுக்களாகப் பிரித்தனர்: தங்கள் மூளையை மட்டும் பயன்படுத்தி எழுதியவர்கள், தேடல் இயந்திரங்களால் உதவி பெற்றவர்கள், மற்றும் ChatGPT-ஐ பயன்படுத்தியவர்கள். பங்கேற்பாளர்கள் மிகவும் வலுவான முடிவுகளை உறுதிப்படுத்த பங்குகளை மாற்றிக்கொண்டனர். மூன்று குழுக்களின் நரம்பியல் செயல்பாடுகளும் நான்கு மாதங்களுக்கு கண்காணிக்கப்பட்டன. பெரிய மொழி மாதிரிகளைப் (Large Language Models (LLMs)) பயன்படுத்திய குழு தங்கள் எழுத்துடன் கணிசமாகக் குறைவான அறிவாற்றல் ஈடுபாட்டைக் காட்டியது. தங்கள் வேலையின் மீது குறைவான உரிமையைக் கொண்டிருந்தது மற்றும் அவர்களின் சக குழுவினரை விடக் குறைவாக நினைவில் வைத்திருந்தது. பலருக்கு, இந்த கண்டுபிடிப்புகள் AI சுற்றியுள்ள கவலைகளுக்கு ஏற்றதாக இருந்தன. தயாரிப்பில் தானியங்கு முறை செய்ததைப் போல AI அறிவுசார் உழைப்பை மாற்றிவிடும் என்ற அச்சம் OpenAI CEO Sam Altman போன்றகளால் அதிகரிக்கப்படுகிறது. சமீபத்திய கட்டுரை ஒன்றில், Altman எழுதினார், "ChatGPT ஏற்கனவே இதுவரை வாழ்ந்த மனிதனையும்விட சக்தி வாய்ந்தது." என்று குறிப்பிட்டு இருந்தார்.
MIT ஆய்வு மற்றும் Altman இருவரும் AI-யின் விளைவுகளை மிகைப்படுத்துகிறார்கள். பெரிய மொழி மாதிரிகள் மீது முழுமையாக சார்ந்திருப்பதன் அறிவாற்றல் விளைவுகள் பாதகமாக இருக்கலாம் என்றாலும், அதை திறம்பட பயன்படுத்துவதற்கான வழிகள் உள்ளன. எழுதுவதின் செயல் - குறைந்தபட்சம் நல்ல எழுத்து - உண்மைகளை மீண்டும் வெளிப்படுத்துவது பற்றியது அல்ல, மாறாக சேகரிக்கும், பகுப்பாய்வு செய்யும் மற்றும் வெளிப்படுத்தும் வழிகள் பற்றியது. இந்த பயிற்சி அறிவுசார் வளர்ச்சிக்கு முக்கியமானது, ஆனால், அதற்கு புதிய கருவிகளை இணைக்க முடியாது என்று அர்த்தமல்ல. AI கற்றலில் ஒருங்கிணைக்கப்படும் நிலையும் முக்கியமானது. உதாரணமாக, பள்ளி மாணவர்கள், வயது வந்த பிறகு கணிப்பானைப் பயன்படுத்த வேண்டியிருந்தாலும், நீண்ட வகுத்தல் முறையை எவ்வாறு செய்வது என்று இன்னும் கற்பிக்கப்படுகிறார்கள். பெரிய மொழி மாதிரிகள் "மொழி சார்ந்த" பணிகளுக்கு பயனுள்ளதாக இருக்கும் - இலக்கணத்தை திருத்துதல், உரைகளை சுருக்குதல் மற்றும் நடையில் உதவுதல் - ஆசிரியரை மாற்றவோ அல்லது குறைக்கவோ இல்லாமல் பெரிய மொழி மாதிரிகள் பயனுள்ளதாக இருக்கும். பிரச்சினை AI-ஐ பயன்படுத்துவதா இல்லையா என்பது அல்ல. ஆனால், எப்படி பயன்படுத்துவது என்பதுதான். AI-யின் விரைவான வளர்ச்சி என்பது அதன் விளைவுகள் பற்றிய ஆராய்ச்சி இன்னும் பின்தங்கி வருகிறது என்று அர்த்தம். சமூக ஊடக வளர்ச்சி மற்றும் அதன் விழிப்பில் தோன்றிய பிரச்சினைகளின் பாடங்கள், இந்த இடைவெளியை குறைப்பதன் முக்கியத்துவத்தை எடுத்துக்காட்டுகின்றன.