இந்தியாவில், குழந்தைகள் இணையத்தை பாதுகாப்பாக பயன்படுத்துவதற்காக பல்வேறு சட்டங்கள், விதிமுறைகள் மற்றும் சமூக ஊடகத் தளங்களின் நடவடிக்கைகள் உள்ளன. ஆனால், இந்த விதிகள் சரியாக செயல்படுத்தப்படாதது மற்றும் குழந்தைகள் தங்களின் வயதை எளிதாக தவறாக பதிவு செய்ய முடிவது போன்ற காரணங்களால் இன்னும் சவால்கள் தொடர்கின்றன என்று நிபுணர்கள் கூறுகிறார்கள்.
குழந்தைகள் சமூக ஊடகங்களைப் பயன்படுத்துவது குறித்தும் — தீங்கு விளைவிக்கும் உள்ளடக்கங்களுக்கு ஆளாகுதல், இணையவழித் தூண்டுதல்கள் மற்றும் இணையக் குற்றங்கள் போன்றவற்றுடன் தொடர்புடைய ஆபத்துகள் குறித்த கவலைகள் அதிகரித்து வரும் நிலையில், அவர்களைப் பாதுகாப்பதற்காக இந்தியா பல்வேறு சட்டங்கள், ஒழுங்குமுறை கட்டமைப்புகள் மற்றும் சமூக ஊடகத் தளங்களின் நடவடிக்கைகள் ஆகியவற்றை பயன்படுத்தி குழந்தைகளை பாதுகாக்க முயற்சித்து வருகிறது.
ஆனால், அமலாக்க மற்றும் தொழில்நுட்ப இடைவெளிகள் மற்றும் குழந்தைகள் தங்கள் வயதை வயதை எளிதாக தவறாக பதிவு செய்வது போன்றவை இந்த பாதுகாப்புகளின் செயல்திறனுக்கு தொடர்ந்து சவால்களை ஏற்படுத்துவதாக நிபுணர்கள் கூறுகின்றனர்.
இதற்கிடையில், இந்த தளங்களுக்கான குழந்தைகளின் அணுகலை ஒழுங்குபடுத்துவதற்கான தரப்படுத்தப்பட்ட அணுகுமுறையை ஒன்றிய அரசு பரிசீலித்து வருவதாக அறியப்படுகிறது.
தற்போது, குழந்தைகளை இணையத்தில் பாதுகாப்பதற்காக இந்தியா பல நிலைகளில் நடவடிக்கைகளை மேற்கொண்டு வருகிறது. குழந்தைகளின் தரவைச் செயலாக்குவதற்கு பெற்றோரின் ஒப்புதலை கட்டாயமாக்கும் டிஜிட்டல் தனிநபர் தரவு பாதுகாப்புச் சட்டம், 2023 (Digital Personal Data Protection Act, 2023) தகவல் தொழில்நுட்பச் சட்டம் மற்றும் பாலியல் குற்றங்களிலிருந்து குழந்தைகளைப் பாதுகாத்தல் (Protection of Children from Sexual Offences (POCSO)) சட்டம் போன்ற சட்டங்களின்கீழ் குற்றவியல் விதிகள், அத்துடன் வயது வரம்பு, பெற்றோர் கட்டுப்பாடுகள் மற்றும் குழந்தைகளை மையமாகக் கொண்ட உள்ளடக்க சுற்றுச்சூழல் அமைப்புகள் போன்ற தள அளவிலான நடவடிக்கைகளை மேற்கொண்டுள்ளது.
இணையதளத்தில் குழந்தைகளுக்கான ஆபத்துகள்
இணையதளத்தில் அதிக நேரம் செலவிடும் குழந்தைகள், அவர்களின் மனநலத்திற்கு பாதிப்பு ஏற்படுத்தக்கூடிய தீங்கான உள்ளடக்கங்களை சந்திக்கும் அபாயம் உள்ளது. இதனால் கவலை (anxiety) மற்றும் தனிமைப்படுதல் (alienation) போன்ற பிரச்சினைகள் உருவாகலாம். இணையதளத்தில் குழந்தைகள் தவறான நோக்கங்களுக்காகப் பழக்குவது ஒரு ஆபத்தை ஏற்படுத்தும்.
தேசிய குற்றப் பதிவுப் பணியகத்தின் (National Crime Records Bureau (NCRB)) தரவுகள், இளம் பயனர்களிடையே இணைய பயன்பாடு தொடர்ந்து விரிவடைந்து வரும் நிலையில், 2021 மற்றும் 2022-க்கு இடையில் குழந்தைகளுக்கு எதிரான சைபர் குற்றம் 32% அதிகரித்துள்ளதாகக் காட்டுகிறது.
கடந்த ஆண்டு நிதி ஆயோக் வெளியிட்ட அறிக்கை, 2023-ஆம் ஆண்டில் ஐந்து வயதுக்குட்பட்ட குழந்தைகள் சராசரியாக 1.5 மணிநேரம் இணையதளத்தில் கல்வி வீடியோக்கள் மற்றும் விளையாட்டுகளை பார்த்ததாக கூறியுள்ளது. 6 முதல் 10 வயதுக்குட்பட்டவர்கள் சமூக ஊடகங்கள், விளையாட்டு மற்றும் வீடியோக்கள் போன்ற சேவைகளைப் பயன்படுத்தி 2.5 மணிநேரம் இணையதளத்தில் செலவிட்டனர். 11-15 வயதுடையவர்கள் ஒரு நாளைக்கு நான்கு மணிநேரம் இணையதளத்தில் செலவிட்டாலும், 16-18 வயதுக்குட்பட்டவர்கள் சமூக ஊடகங்கள், இணையதளத்தில் மன்றங்கள் மற்றும் வணிகத்தில் தினமும் ஆறு மணிநேரம் வரை செலவிட்டனர்.
இணையதளத்தில் செயல்படும் குழந்தைகளுக்கான இந்தியாவின் ஒழுங்குமுறை கட்டமைப்பு
இந்தியா ஒழுங்குமுறை நடவடிக்கைகள், சுய ஒழுங்குமுறை குறியீடுகள் மற்றும் கல்வி முயற்சிகளின் கட்டமைப்பை உருவாக்கியுள்ளது. இருப்பினும் விமர்சகர்கள் அமலாக்கம் தளர்வாக இருக்கலாம் என்று வாதிடுகின்றனர்.
டிஜிட்டல் தனிநபர் தரவு பாதுகாப்பு சட்டம், 2023-ன் கீழ், 18 குழந்தைகளின் தரவை சேகரிக்கும் நிறுவனங்கள், அவர்களின் பெற்றோர் அல்லது பாதுகாவலரின் அனுமதியை பெறவேண்டும். மேலும் குழந்தைகளின் நடத்தைப் பற்றிய கண்காணிப்பு அல்லது அவர்களுக்கு குறிவைத்த விளம்பரங்களை வழங்குவதும் தடை செய்யப்பட்டுள்ளது. ஆனால், பலர் குழந்தைகள் தங்களது வயதை தவறாகக் குறிப்பிடுவதன் மூலம் இந்த கட்டுப்பாடுகளை எளிதில் தவிர்க்கலாம் என்று நம்பப்படுகிறது.
நவம்பர் 2025-ல் இந்திய ஆளுகை மற்றும் கொள்கைத் திட்டம் என்ற சிந்தனைக் குழு தயாரித்த அறிக்கையின்படி, 2000-ஆம் ஆண்டு தகவல் தொழில்நுட்பச் சட்டம், குழந்தைகள் பாலியல் துஷ்பிரயோகம் தொடர்பான பொருட்களை உருவாக்குவதை குற்றமாக்கும் விதிகளைக் கொண்டுள்ளது. தொழில்நுட்பச் சட்டம் மற்றும் 2012-ஆம் ஆண்டு பாலியல் குற்றங்களிலிருந்து குழந்தைகளைப் பாதுகாத்தல் (Protection of Children from Sexual Offences (POCSO)) சட்டம் இணையதளத்தில் பாலியல் சுரண்டல் மற்றும் சீர்ப்படுத்தலை வகைப்படுத்தி தண்டனை பெற்று தருகிறது. பாரதிய நியாய சன்ஹிதா, 2023, குழந்தைகளுக்கு எதிரான டிஜிட்டல் குற்றங்கள், மனிதக் கடத்தல் மற்றும் தொல்லை போன்றவற்றுக்கும் பொறுப்பை விரிவுபடுத்துகிறது. சிறார் நீதி (குழந்தைகளின் பராமரிப்பு மற்றும் பாதுகாப்பு) சட்டம், 2015, குழந்தைகள் சுரண்டலுக்கான எதிராக இணையதளத்தில் உதவிகளை வழங்குகிறது.
இருப்பினும், டிஜிட்டல் ஃபொரென்சிக் திறன் குறைவு, சட்ட அமலாக்க அதிகாரிகளுக்கான பயிற்சி குறைவு, மற்றும் சிறப்பு பாலியல் குற்றங்களிலிருந்து குழந்தைகளைப் பாதுகாத்தல் சட்டம் நீதிமன்றங்களின் நடைமுறையில் உள்ள ஒற்றுமையின்மை போன்ற காரணங்கள் குற்றங்களை சரியாக விசாரித்து தண்டனை வழங்குவதில் தடையாக உள்ளன என்று அறிக்கை குறிப்பிட்டது.
தகவல் தொழில்நுட்பம் (இடைத்தரகர் வழிகாட்டுதல்கள் மற்றும் டிஜிட்டல் ஊடக நெறிமுறைக் குறியீடு) விதிகள், 2021-ன் கீழ், Netflix, Disney+ Hotstar, Apple TV போன்ற தளங்கள் தாங்கள் வழங்கும் உள்ளடக்கத்தை வயது அடிப்படையில் ஐந்து வகைகளாகப் பிரிக்க வேண்டும். U சான்றிதழ் அனைவருக்கும் ஏற்றது என்றும், U/A 7+, U/A 13+, U/A 16+ மற்றும் A சான்றிதழ் பெரியவர்களுக்கு மட்டும் ஏற்றது என்றும் U/A 13+ அல்லது அதற்கு மேற்பட்ட வகையின் கீழ் வகைப்படுத்தப்பட்ட உள்ளடக்கத்திற்குப் 'பெற்றோர் கட்டுப்பாடுகளையும்' (parental locks), 'A' என வகைப்படுத்தப்பட்ட உள்ளடக்கத்திற்கு நம்பகமான வயது சரிபார்ப்பு வழிமுறைகளையும் இத்தளங்கள் கட்டாயமாகச் செயல்படுத்த வேண்டும்.
கல்வி அமைச்சகம் (MoE), ஜூலை 14, 2020 அன்று PRAGYATA வழிகாட்டுதல்களை அறிமுகப்படுத்தியது. இது மாணவர்களின் பாதுகாப்பையும் கல்வி நலனையும் உறுதிப்படுத்தும் வகையில், வயதிற்கு ஏற்ப திரை நேரம் (screen time) வரம்புகளை பரிந்துரைக்கிறது.
சில சமூக ஊடகத் தளங்கள் ஏற்கனவே வயது வரம்புகளைக் கொண்டுள்ளன
இந்தியாவில், எந்தவொரு Google கணக்கை உருவாக்கி நிர்வகிக்கும் குறைந்தபட்ச வயது 13 ஆகும். எடுத்துக்காட்டாக, மின்னஞ்சலில், பெற்றோர்கள் 13 வயதுக்குட்பட்ட தங்கள் குழந்தைக்கு 'Family Link' மூலம் ஒரு கணக்கை உருவாக்கலாம். இது Chrome, Play, YouTube மற்றும் Search போன்ற Google சேவைகளில் பெற்றோர் கட்டுப்பாடுகளை அமைக்க அனுமதிக்கும் ஒரு கருவியாகும். Family Link பெற்றோரை பொருத்தமற்ற தளங்களைத் தடுக்கலாம், புதிய செயலிகளை (apps) பதிவிறக்கம் செய்ய பெற்றோர் அனுமதி அவசியமாக்கலாம், பல்வேறு அனுமதிகளை (permissions) நிர்வகிக்கலாம். குழந்தை 13 வயதை அடைந்தபோது, கணக்கை “புதுப்பிப்பு” செய்யுமாறு ஒரு மின்னஞ்சல் அனுப்பப்படும். அதன் பிறகு, பயனர் தங்களது கணக்கை தாமாகவே நிர்வகிக்க முடியும். இருப்பினும், பெற்றோர் கண்காணிப்பு (supervision) நிறுத்தப்பட்டால் அதற்கான அறிவிப்பு பெற்றோருக்கு தொடர்ந்து செல்லும்.
Meta நிறுவனத்திற்குச் சொந்தமான Instagram என்ற சமூக ஊடக செயலியில், இளம் வயதினர் அதிகமாகப் பயன்படுத்துவதால் “இளம்பருவக் கணக்குகள்” என்ற பாதுகாப்பு அம்சம் அறிமுகப்படுத்தப்பட்டுள்ளது. கூடுதல் பாதுகாப்புகளுக்காக இந்த அம்சம் அனைத்து இளம் வயதினர்களின் கணக்குகளையும் தானாகவே வகைப்படுத்துகிறது. மேலும், 16 வயதுக்குட்பட்ட பயனர்கள் எந்தவொரு உள்ளடக்க அமைப்புகளையும் குறைவான கண்டிப்பானதாக மாற்ற பெற்றோரின் அனுமதி தேவைப்படும்.
தொழில்நுட்ப நிறுவனங்கள் குழந்தைகளுக்காக தனிப்பட்ட தளங்களையும் உருவாக்கியுள்ளன. உதாரணமாக YouTube Kids, இது YouTube-ன் ஒரு தனிப்பட்ட பதிப்பாகும். இதில் குழந்தைகள் “பாதுகாப்பான சூழலில்” (contained environment) உள்ளடக்கங்களை பார்க்க முடியும். மேலும் பெற்றோர் தங்கள் குழந்தையின் வயதைத் தேர்வு செய்து, அவர்களுக்கு காட்டப்படும் உள்ளடக்கத்தின் வகையை ஏற்படுத்திக் கொள்ள முடியும்.
எனினும், இந்த பாதுகாப்பு நடவடிக்கைகள் அனைத்தும் முழுமையாக நம்பகமானவை அல்ல என்பதை கவனத்தில் கொள்ள வேண்டும். கடந்த ஆண்டு, United States Congress முன்பு Meta நிறுவனத்திற்கு எதிராக சாட்சியம் அளித்த ஒரு முன்னாள் மூத்த பொறியாளர் தலைமையில் நடைபெற்ற ஆய்வில், Instagram குழந்தைகளை பாதுகாக்க உருவாக்கப்பட்டதாக விளம்பரப்படுத்தப்பட்ட புதிய பாதுகாப்பு கருவிகளில் இரண்டு-மூன்றாம் பங்கு (64%) பயனற்றதாக இருந்தது என்று கண்டறியப்பட்டது. இதற்குப் பதிலளித்த Meta நிறுவனங்கள், அந்த அறிக்கை தங்களின் முயற்சிகளை “தவறாக விளக்கியுள்ளது” என்று தெரிவித்தது.
Original Link: How India is trying to regulate children’s social media use — and why gaps remain.