இராணுவ செயற்கை நுண்ணறிவு (AI) என்பது இராணுவப் பணிகளில் அறிவார்ந்த மனித நடத்தையை பிரதிபலிக்கும் எந்தவொரு தொழில்நுட்பம் அல்லது அமைப்பையும் குறிக்கிறது. இது தானியங்கி ட்ரோன்கள் (autonomous drones) மற்றும் ஏவுகணை வழிகாட்டுதல் (missile guidance) முதல் தரவு பகுப்பாய்வு, தளவாடங்கள் மற்றும் உளவுத்துறை சேகரிப்பு வரை அனைத்தையும் உள்ளடக்கியது. எளிமையாகச் சொன்னால், பாதுகாப்பு திறன்களை மேம்படுத்த, தானியங்குபடுத்த அல்லது மாற்ற AI-ன் எந்தவொரு பயன்பாடும் இதில் அடங்கும். உலகளவில் பாதுகாப்புப் படைகளை நவீனமயமாக்கல் திட்டங்களில் AI-ஐ ஒருங்கிணைப்பது ஒரு முக்கிய அங்கமாக மாறியுள்ளது. பாதுகாப்பு வல்லுநர்கள் பெரும்பாலும் இராணுவ AI-ன் வருகையை விமானம் அல்லது அணு ஆயுதங்கள் போன்ற கடந்தகால புரட்சிகர தொழில்நுட்பங்களுடன் ஒப்பிடுகின்றனர். ஏனெனில், அதன் உத்திக்கான சமநிலைகளை மாற்றவும் பாதுகாப்பு முன்னுதாரணங்களை மறுவரையறை செய்யவும் அதற்கான திறன் உள்ளது.
உலகளவில், அமெரிக்கா மற்றும் சீனா போன்ற முக்கிய பாதுகாப்பு சக்திகள் இராணுவ AI திட்டங்களில் பெரிதும் முதலீடு செய்கின்றன. ஒவ்வொன்றும் ஒரு தொழில்நுட்பரீதியில் அதற்கான பலன்களைப் பெற பராமரிக்க பாடுபடுகின்றன. சீனாவின் 'புத்திசாலித்தனமான போர்' (intelligentized warfare) கோட்பாடு தன்னாட்சி தளங்களுக்கு முக்கியத்துவம் அளிக்கிறது. அதே நேரத்தில், அமெரிக்கா போட்டியாளர் முன்னேற்றத்தை மெதுவாக்க குறைமின்கடத்தி ஏற்றுமதிகளை கட்டுப்படுத்தியுள்ளது மற்றும் அதன் விளிம்பைப் பராமரிக்க நட்பு நாடுகளுடன் கூட்டு முயற்சிகளைத் தொடங்கியுள்ளது.
இந்தியாவின் பாதுகாப்பு அமைச்சகம் AI தத்தெடுப்பை (AI adoption) விரைவுபடுத்துவதற்கான முக்கிய அமைப்புகளை நிறுவுவதன் மூலம் பதிலளித்துள்ளது. பாதுகாப்பு அமைச்சர் தலைமையிலான பாதுகாப்பு AI கவுன்சில் (Defence AI Council (DAIC)), சேவைத் தலைவர்கள், குற்றப் பாதுகாப்பு நிபுணர்கள், DRDO, தொழில்துறை மற்றும் கல்வித்துறை ஆகியவற்றைக் கொண்டுள்ளது. பாதுகாப்பு AI முன்முயற்சிகளுக்கான கொள்கைகளை வழிநடத்துவது, செயல்பாட்டு கட்டமைப்பு ஆதரவை வழிநடத்த இரண்டு ஆண்டுகளுக்கு ஒரு முறை கூடுகிறது. இதற்கு துணைபுரிவது பாதுகாப்பு AI திட்ட நிறுவனம் (Defence AI Project Agency (DAIPA)), செயலாளர் (பாதுகாப்பு உற்பத்தி) தலைமையில், சேவைகள், DPSUகள், DRDO, கல்வித்துறை மற்றும் தொழில்துறையைச் சேர்ந்த உறுப்பினர்களை உள்ளடக்கியது. DAIPA AI திட்ட மேம்பாட்டிற்கான தரநிலைகளை அமைக்கிறது மற்றும் இது பயனர் குழுக்களுடன் சேர்ந்து AI தத்தெடுப்பு திட்டங்களையும் மதிப்பாய்வு செய்கிறது.
அக்டோபர் 2024-ல் பாதுகாப்புப் படைத் தலைவர் மற்றும் DRDO தலைவரால் தொடங்கப்பட்ட ETAI கட்டமைப்பானது, நம்பகத்தன்மை (reliability), பாதுகாப்பு (safety), வெளிப்படைத்தன்மை (transparency), நியாயத்தன்மை (fairness) மற்றும் தனியுரிமை (privacy) ஆகிய ஐந்து கொள்கைகளில் கவனம் செலுத்துகிறது. இராணுவத்தால் பயன்படுத்தப்படும் எந்தவொரு AI அமைப்பும் விரோதத் தாக்குதல்கள் மற்றும் எதிர்பாராத விளைவுகளுக்கு எதிராக வலுவாக இருப்பதை உறுதி செய்வதை இந்த கட்டமைப்பு நோக்கமாகக் கொண்டுள்ளது. மேம்பட்ட AI இருப்பது போதாது என்பதை DRDO அங்கீகரிப்பதை இது காட்டுகிறது. AI நம்பகமானதாகவும் பாதுகாப்பாகவும் இருக்க வேண்டும்.
இருப்பினும், வெளிப்படைத்தன்மை ஒரு பெரிய சவாலாகவே உள்ளது. AI அமைப்புகள், குறிப்பாக இயந்திர கற்றலை அடிப்படையாகக் கொண்டவை, பெரும்பாலும் கருப்புப் பெட்டிகளைப் போலவே செயல்படுகிறார்கள். அவற்றின் முடிவெடுக்கும் செயல்முறைகளை விளக்குவது கடினம். இராணுவ அமைப்புகளில், இந்த தெளிவின்மை நம்பிக்கையைக் குறைக்கலாம். வீரர்கள் தங்களுக்குப் புரியாத AI பரிந்துரைகளின்படி செயல்படத் தயங்கக்கூடும். இவற்றின் பொறுப்புத்தன்மைக்கு வெளிப்படைத்தன்மையும் அவசியம். தவறான AI நடவடிக்கைகளை ஆராய்வதற்கு தணிக்கைப் பாதைகள், பதிவுகள் மற்றும் விளக்கக்கூடிய AI மாதிரிகள் தேவை.
தன்னாட்சி ஆயுதங்களைப் பயன்படுத்துவது ஆபத்தானது. இந்த ஆயுதங்கள் எப்போதும் வீரர்களுக்கும் பொதுமக்களுக்கும் இடையிலான வேறுபாட்டைக் கூறாது. இது சர்வதேச மனிதாபிமான சட்டத்தை (International Humanitarian Law (IHL)) மீறுவதற்கு வழிவகுக்கும். விகிதாசாரக் கொள்கை (principle of proportionality) என்பது இராணுவ ஆதாயத்திற்கு எதிராக பொதுமக்களின் தீங்கை சமநிலைப்படுத்துவதாகும். இந்த சமநிலை சூழ்நிலையைப் பொறுத்தது மற்றும் பெரும்பாலும் தனிப்பட்ட தீர்ப்பு தேவைப்படுகிறது. இந்த தீர்ப்புகளை வழங்க ஒரு வழிமுறையை நிரலாக்குவது கடினமாக இருக்கலாம். இதன் காரணமாக, மனிதர்கள் எப்போதும் கட்டுப்பாட்டில் இருக்க வேண்டும் என்று ஐக்கிய நாடுகள் சபை கூறுகிறது. மேலும், போரில் பயன்படுத்தப்படும் AI-க்கு IHL விதிகள் முழுமையாகப் பொருந்தும். புதிய AI ஆயுதங்களைப் பயன்படுத்துவதற்கு முன்பு, அவற்றின் பயன்பாடு IHL-ஐப் பின்பற்றுகிறதா என்பதை இந்தியா சரிபார்க்க வேண்டும்.
முன்னேற்றம் இருந்தபோதிலும், இந்தியாவின் பாதுகாப்பு AI (defence AI) தயார்நிலையில் குறிப்பிடத்தக்க இடைவெளிகள் உள்ளன. கூடுதலாக, நிறுவனங்களுக்கு இடையேயான ஒருங்கிணைப்பு ஒரு வேலையாக உள்ளது. DAIC, NITI ஆயோக்கின் AI குழு, MeitY இன் AI பிரிவு மற்றும் ஆயுதப்படைகளின் சொந்த AI செல்கள் (AI cells) உள்ளிட்ட பல அமைப்புகள் இதில் ஈடுபட்டுள்ளன. ஆனால், ஒரு நெறிப்படுத்தப்பட்ட ஒருங்கிணைப்பு வழிமுறை இன்னும் முழுமையாக உணரப்படவில்லை. உள்கட்டமைப்பைப் பொறுத்தவரை, சவால்களும் நீடிக்கின்றன. பல திட்டங்கள் நம்பிக்கைக்குரியவை என்றாலும், இந்தியாவில் பாதுகாப்பு AI ஆராய்ச்சியாளர்களுக்குக் கிடைக்கும் ஒட்டுமொத்த கணக்கீட்டு வளங்கள் மற்றும் தரவு சுற்றுச்சூழல் அமைப்புகள் உலகளாவிய மற்ற நாடுகளுடன் ஒப்பிடும்போது இன்னும் குறைவாகவே உள்ளன. பெரிய தரவுத்தொகுப்புகளுக்கான அணுகலை (பாதுகாப்பு மற்றும் தனியுரிமையைப் பாதுகாக்கும் அதே வேளையில்) மற்றும் AI அமைப்புகளுக்கான போதுமான சோதனை மற்றும் மதிப்பீட்டு வசதிகளை இந்தியா உறுதி செய்ய வேண்டும்.
நிர்வாகம், உள்கட்டமைப்பு மற்றும் திறமை ஆகியவற்றில் சரியான முதலீடுகளுடன், பொறுப்பான மற்றும் உத்தியின் பாதுகாப்பு AI கண்டுபிடிப்புகளில் உலகளாவிய தலைவராக வெளிப்படுவதற்கு இந்தியா நன்கு நிலைநிறுத்தப்பட்டுள்ளது.
இந்தக் கட்டுரையை JSA வழக்கறிஞர்கள் மற்றும் வழக்குரைஞர்கள் அமைப்பில் பங்குதாரர் ஜைன் பண்டிட் மற்றும் இணை உறுப்பினர் ஆஷ்னா நஹர் ஆகியோர் எழுதியுள்ளனர்.