कृत्रिम बुद्धि निर्देशित जानलेवा स्वायत्त हथियार

चक्रेश जैन

जानलेवा सैन्य हथियारों की स्वायत्तता इन दिनों गहन विचार मंथन और चर्चाओं के दौर से गुज़र रही है। कृत्रिम बुद्धि निर्देशित जानलेवा स्वायत्त हथियारों के सृजन को रोकने के लिए अंतर्राष्ट्रीय स्तर पर अभियान शुरू हुआ है। जुलाई 2023 में संयुक्त राष्ट्र सुरक्षा परिषद द्वारा कृत्रिम बुद्धि निर्देशित हथियारों के विभिन्न पहलुओं पर व्यापक मंथन किया गया था। विचार मंथन का दौर अभी थमा नहीं है। इसी साल के उत्तरार्द्ध में संयुक्त राष्ट्र महासभा में कृत्रिम बुद्धि निर्देशित जानलेवा स्वायत्त हथियारों पर विभिन्न कोणों से नज़र डालने के लिए बैठक होगी। लेकिन इस बैठक के पहले अप्रैल में ऑस्ट्रिया में एक सम्मेलन आयोजित हो चुका है।

कृत्रिम बुद्धि निर्देशित जानलेवा स्वायत्त हथियारों की तुलना रासायनिक, जैविक और परमाणु हथियारों से की जाए तो ये हथियार खतरनाक होने के पैमाने पर एक कदम आगे निकल गए हैं। हाल के वर्षों में दुनिया की बड़ी सैन्य ताकतों ने जानलेवा स्वायत्त हथियारों को मज़बूत करने पर विशेष ज़ोर दिया है। यही मुद्दा विचार मंथन का विषय है। रक्षा वैज्ञानिक, विधिवेत्ता, रोबोट विज्ञान के अध्येता, सैन्य योजनाकार और नैतिकतावादी जानलेवा स्वायत्त हथियारों के विभिन्न मुद्दों पर बहस में जुट गए हैं।

जानलेवा स्वायत्त हथियारों पर प्रतिबंध के संदर्भ में नैतिक कारण भी अहम हैं। यह सवाल सहज रूप से किया जा सकता है कि युद्ध के मैदान में किसी भी अनैतिक गतिविधि के लिए एक मशीन को कैसे ज़िम्मेदार ठहराया जा सकता है? इस सवाल का कोई तर्क आधारित उत्तर किसी के पास नहीं है और यही कारण है कि इन हथियारों पर प्रतिबंध की मांग उठी है। नैतिक कारणों पर गंभीरता से गौर करें तो एक और बात जोड़ना लाज़मी है। क्या किसी मशीन द्वारा जीवन और मृत्यु का फैसला करना नैतिक रूप से स्वीकार्य है?

कृत्रिम बुद्धि निर्देशित जानलेवा स्वायत्त हथियारों का इस्तेमाल पिछले कई दशकों से हो रहा है। इनमें हीट सीकिंग मिसाइलें और प्रेशर ट्रिगर बारूदी सुरंगें भी सम्मिलित हैं। हाल के वर्षों में चीन, अमेरिका, ब्रिटेन, रूस और इस्राइल जैसे देशों ने युद्ध के मैदान में इन हथियारों की तैनाती को प्राथमिकता दी है। भारत ने स्वायत्त हथियारों पर अनुसंधान का समर्थन किया है।

सेना में कृत्रिम बुद्धि का इस्तेमाल जिन कुछ कार्यों के लिए किया जा सकता है, उनमें रसद और आपूर्ति प्रबंधन, डैटा विश्लेषण, खु़फिया जानकारियां जुटाने, सायबर ऑपरेशन और हथियारों की स्वायत्त प्रणाली सम्मिलित है। इनमें सबसे ज़्यादा विवादित हथियारों की स्वायत्त प्रणाली है।

क्या हैं स्वायत्त हथियार

इसके तहत वे हथियार आते हैं, जो अपने आप कार्य करने में सक्षम हैं; इन्हें मनुष्य की ज़रूरत नहीं पड़ती।

इंटरनेशनल कमेटी ऑफ दी रेड क्रॉस की परिभाषा के अनुसार स्वायत्त हथियार ऐसे हथियार हैं, जो मानवीय हस्तक्षेप के बिना लक्ष्य का चुनाव और इस्तेमाल करते हैं। वास्तव में स्वायत्त हथियार सेंसर और सॉफ्टवेयर से संचालित होते हैं। इनका इस्तेमाल उन इलाकों में किया जाता है, जहां बहुत कम आबादी होती है। दरअसल जानलेवा स्वायत्त हथियार अपने लक्ष्य की पहचान के लिए एल्गोरिदम का इस्तेमाल करते हैं।

हथियारों की यह प्रणाली ‘प्रक्षेपास्त्र प्रतिरक्षा प्रणाली’ से लेकर एक लघु ड्रोन के रूप में हो सकती है। इन हथियारों का लड़ाई के दौरान इस्तेमाल करने के कारण एक नया शब्द ईजाद किया गया है, जिसे ‘लीथल ऑटोनामस वेपन’ कहा जा रहा है। इन हथियारों का इस्तेमाल ज़मीन से लेकर अंतरिक्ष तक में किया जा सकता है, पानी पर अथवा पानी के नीचे भी किया जा सकता है। विशेषज्ञों का विचार है कि जानलेवा स्वायत्त हथियारों के सृजन में प्रौद्योगिकी की अहम भूमिका है। वस्तुत: प्रौद्योगिकी हथियारों को रफ्तार, बचाव और अन्य प्रकार की विशेषताओं से युक्त और कारगर बनाने में भूमिका निभाती है।

प्रौद्योगिकी के प्रसंग में कैलिफोर्निया युनिवर्सिटी, बर्कले के कंप्यूटर अध्येता और कृत्रिम बुद्धि से सृजित हथियारों के विरोधी स्टुअर्ट रसेल का सोचना है कि किसी सिस्टम के लिए इंसान का पता लगाकर उसे मारने की प्रौद्योगिकी क्षमता का विकास सेल्फ ड्राइविंग कार विकसित करने से कहीं अधिक आसान है।

वास्तव में पूछा जाए तो ये हथियार अब विज्ञान कथाओं के काल्पनिक भवन से बाहर निकल कर वास्तविक रूप में लड़ाई के मैदान में नज़र आ रहे हैं। इनका धीरे-धीरे विस्तार हो रहा है।

जहां एक ओर कृत्रिम बुद्धि निर्देशित जानलेवा स्वायत्त हथियारों की ज़ोरदार वकालत की गई है, वहीं दूसरी ओर इन्हें भारी विरोध और तीखी आलोचनाओं का सामना भी करना पड़ा है। आलोचकों के अनुसार ये हथियार बहुत महंगे हैं। इनका रचनात्मकता से ज़रा भी सरोकार नहीं है। भावनाओं से कोई लेना-देना नहीं है। जवाबदेही का सवाल ही नहीं उठता। एक अध्ययन में बताया गया है कि इन हथियारों के इस्तेमाल से बेरोज़गारी बढ़ेगी।

दूसरी ओर, ऐसे हथियारों की ज़ोरदार वकालत कर रहे लोगों का कहना है कि ये अत्यधिक उन्नत कार्यों को सम्पादित करने में पूरी तरह सक्षम हैं। युद्ध के दौरान मनुष्य से होने वाली त्रुटियों में कमी आएगी। ये त्वरित फैसला करने में सक्षम हैं। कुल मिलाकर, ये हथियार सटीक साबित हुए हैं और हर पल उपलब्ध हैं। इस प्रकार के हथियारों ने नए आविष्कारों और नवाचारों को भी जन्म देने में भूमिका निभाई है। पारम्परिक हथियारों की तुलना में इनसे कम नुकसान पहुंचता है, नागरिक कम हताहत होते हैं।

हाल के वर्षों में छिड़े युद्धों में कृत्रिम बुद्धि निर्देशित जानलेवा स्वायत्त हथियारों का इस्तेमाल किया गया है। इसका एक उदाहरण रूस और यूक्रेन के बीच लड़ाई है, जिसमें एआई ड्रोन का इस्तेमाल भी किया गया है। अमेरिका के रक्षा विभाग ने अपने ‘रेप्लिकेटर’ कार्यक्रम के तहत लघु हथियारयुक्त स्वायत्त वाहनों का बेड़ा तैयार किया है। इसके अलावा, प्रायोगिक पनडुब्बियां और जहाज़ बनाए हैं, जो स्वयं को चलाने के लिए कृत्रिम बुद्धि छवि का उपयोग कर सकते हैं। स्वायत्त हथियार एक मॉडल विमान के आकार का हो सकता है। इनका मूल्य लगभग पचास हज़ार डॉलर आंका गया है।

स्वायत्त हथियार प्रणालियों का समर्थन दो हिस्सों में बांटा जा सकता है। पहला, सैन्य स्तर पर फायदे और दूसरा, नैतिक औचित्य। अमेरिकी सेना के एक अधिकारी का मानना है कि युद्ध क्षेत्रों से मनुष्यों को हटाकर रोबोट का इस्तेमाल करने के नैतिक फायदे हो सकते हैं।

जुलाई 2015 में कृत्रिम बुद्धि पर आयोजित अंतर्राष्ट्रीय सम्मेलन में प्रतिभागी राष्ट्रों ने मानवीय नियंत्रण से परे स्वायत्त हथियारों पर रोक लगाने का आव्हान करते हुए एक खुला पत्र जारी किया था, जिसमें कहा गया था कि कृत्रिम बुद्धि में मानवता को फायदा पहुंचाने की क्षमताएं हैं, लेकिन अगर कृत्रिम बुद्धि निर्देशित हथियारों की स्पर्धा शुरू हो जाती है तो एआई की प्रतिष्ठा धूमिल पड़ सकती है। इस पत्र पर हस्ताक्षर करने वालों में टेस्ला कंपनी के संस्थापक एलन मस्क भी शामिल हैं। दरअसल स्वायत्त हथियार प्रणालियों के कुछ विरोध न केवल उत्पादन और तैनाती बल्कि इन पर रिसर्च, विकास और परीक्षण पर भी पाबंदी लगाना चाहते हैं।

रक्षा विज्ञान के दस्तावेज़ों में स्वायत्तता को अलग-अलग तरह से परिभाषित किया गया है। रेड क्रॉस की अंतर्राष्ट्रीय समिति के अनुसार स्वायत्त हथियार ऐसे हथियार हैं, जो स्वतंत्र रूप से लक्ष्यों का चुनाव और आक्रमण करने में सक्षम हैं। हारवर्ड लॉ स्कूल की मानव अधिकार अधिवक्ता बोनी डॉचेर्टी ने स्वायत्तता को तीन श्रेणियों में विभाजित किया है: ह्युमैन-इन-दी-लूप (निर्णय शृंखला में मानव शामिल); ह्युमैन-ऑन-दी-लूप (निर्णय शृंखला पर मानव) और तीसरा ह्युमैन-आउट-ऑफ-दी-लूप (मानव निर्णय शृंखला के बाहर) हैं। ‘निर्णय शृंखला में मानव शामिल’ श्रेणी में हथियारों की कार्रवाई इंसान द्वारा की जाती है, लेकिन लोगों को कहां और कैसे सम्मिलित किया जाना चाहिए, यह विचार मंथन का मुद्दा है। ‘निर्णय शृंखला पर मानव’ में एक मनुष्य किसी कार्रवाई को रद्द कर सकता है। ‘मानव निर्णय शृंखला के बाहर’ श्रेणी में कोई मानवीय हस्तक्षेप नहीं है। अनुसंधानकर्ताओं और सैन्य विज्ञान के जानकारों ने सैद्धांतिक तौर पर पहले प्रकार पर सहमति ज़ाहिर की है।

कृत्रिम बुद्धि से निर्देशित जानलेवा स्वायत्त हथियारों के मामले में एक महत्त्वपूर्ण मुद्दा यह भी है कि युद्ध के मैदान में इनके बेहतर प्रदर्शन का पता लगाना बेहद कठिन कार्य है क्योंकि किसी भी देश की सेना इस प्रकार की सूचनाओं का सार्वजनिक तौर पर खुलासा नहीं करती। सैन्य अधिकारी केवल इतना ही बताते हैं कि इस प्रकार के डैटा अथवा सूचनाओं का उपयोग स्वायत्त और गैर-स्वायत्त प्रणालियों के बेंचमार्क अध्ययन में किया जाता है।

परमाणु हथियारों के मामले में ‘साइट निरीक्षण’ और ‘न्यूक्लियर मटेरियल’ के ऑडिट के लिए एक अच्छी तरह से स्थापित निगरानी व्यवस्था है, लेकिन कृत्रिम बुद्धि जनित हथियारों के मामले में तथ्यों को छिपाना या बदलना बेहद आसान है।

सितंबर में संयुक्त राष्ट्र के प्रस्तावित सम्मेलन में ऐसे कुछ गंभीर मुद्दों पर विचार और निर्णय करने के लिए एक कार्य समूह गठित किए जाने के अच्छे आसार हैं। (स्रोत फीचर्स)

नोट: स्रोत में छपे लेखों के विचार लेखकों के हैं। एकलव्य का इनसे सहमत होना आवश्यक नहीं है।
Photo Credit : https://media.nature.com/w1248/magazine-assets/d41586-024-01029-0/d41586-024-01029-0_26993748.jpg?as=webp

प्रातिक्रिया दे