प्रौद्योगिकी जोखिम पर मानवाधिकार क्यों डालती है

प्रौद्योगिकी जोखिम पर मानवाधिकार क्यों डालती है
Spainter_vfx / Shutterstock.com

जैसे फिल्में 2001: ए स्पेस ओडिसी, ब्लेड रनर तथा समापक हमारे सिनेमा स्क्रीन पर नकली रोबोट और कंप्यूटर सिस्टम लाया। लेकिन इन दिनों, इस तरह के क्लासिक साइंस फिक्शन चश्मा वास्तविकता से अब तक नहीं लग रहे हैं।

तेजी से, हम स्वायत्त और बुद्धिमान कम्प्यूटेशनल प्रौद्योगिकियों के साथ रहते हैं, काम करते हैं और खेलते हैं। इन प्रणालियों में स्वतंत्र तर्क और निर्णय लेने की क्षमता वाले सॉफ्टवेयर और हार्डवेयर शामिल हैं। वे कारखाने के तल पर हमारे लिए काम करते हैं; वे तय करते हैं कि क्या हम बंधक प्राप्त कर सकते हैं; वे हमारी गतिविधि और फिटनेस स्तर को ट्रैक और मापते हैं; वे हमारे लिविंग रूम फर्श को साफ करते हैं और हमारे लॉन काटते हैं।

स्वायत्त और बुद्धिमान प्रणालियों में हमारे सामाजिक, आर्थिक, राजनीतिक और निजी जीवन के लगभग हर पहलू को प्रभावित करने की क्षमता है, जिसमें हर रोज़ के पहलुओं को शामिल किया गया है। इनमें से अधिकांश निर्दोष लगता है, लेकिन चिंता का कारण है। कम्प्यूटेशनल टेक्नोलॉजीज हर मानव अधिकार पर, दाएं से जीवन तक गोपनीयता के अधिकार, सामाजिक और आर्थिक अधिकारों की अभिव्यक्ति की स्वतंत्रता पर प्रभाव डालती है। तो हम रोबोटिक्स और कृत्रिम बुद्धि (एआई) द्वारा तेजी से आकार वाले तकनीकी परिदृश्य में मानवाधिकारों की रक्षा कैसे कर सकते हैं?

एआई और मानवाधिकार

सबसे पहले, एक असली डर है कि मशीन स्वायत्तता में वृद्धि मनुष्यों की स्थिति को कमजोर कर देगी। बुद्धिमान मशीनों को नुकसान पहुंचाने पर, कानूनी या नैतिक भावना में, चाहे खाते में कौन रखा जाएगा, इस पर स्पष्टता की कमी से यह डर जटिल है। लेकिन मुझे यकीन नहीं है कि मानवाधिकारों के लिए हमारी चिंता का ध्यान वास्तव में झूठ बोलना चाहिए दुष्ट रोबोट, जैसा कि वर्तमान में लगता है। इसके बजाय, हमें रोबोटों और कृत्रिम बुद्धि के मानव उपयोग और अन्यायपूर्ण और असमान राजनीतिक, सैन्य, आर्थिक और सामाजिक संदर्भों में उनकी तैनाती के बारे में चिंता करनी चाहिए।

यह चिंता घातक स्वायत्त हथियार प्रणालियों (एलएडब्ल्यूएस) के संबंध में विशेष रूप से प्रासंगिक है, जिसे अक्सर हत्यारा रोबोट के रूप में वर्णित किया जाता है। जैसे हम एक एआई हथियार दौड़ की ओर बढ़ो, मानवाधिकार विद्वानों और प्रचारकों जैसे क्रिस्टोफ हेनस, पूर्व संयुक्त राष्ट्र विशेष संवाददाता, असाधारण, सारांश या मनमाने ढंग से निष्पादन पर, डरते हैं कि एलएडब्ल्यूएस के उपयोग से स्वायत्त रोबोट सिस्टम जीवन और मृत्यु के फैसले के प्रभारी, सीमित या कोई मानव नियंत्रण के साथ।

एआई युद्ध और निगरानी प्रथाओं के बीच के लिंक को भी क्रांतिकारी बनाता है। जैसे समूह रोबोट शस्त्र नियंत्रण के लिए अंतर्राष्ट्रीय समिति (आईसीआरएसी) हाल ही में Google की भागीदारी में उनका विरोध व्यक्त किया परियोजना मेवेन, एक सैन्य कार्यक्रम जो ड्रोन निगरानी फुटेज का विश्लेषण करने के लिए मशीन लर्निंग का उपयोग करता है, जिसका उपयोग असाधारण हत्याओं के लिए किया जा सकता है। ICRAC अपील यह सुनिश्चित करने के लिए कि Google अपने उपयोगकर्ताओं पर एकत्रित डेटा का उपयोग सैन्य उद्देश्यों के लिए कभी नहीं किया जाता है, परियोजना में कंपनी की भागीदारी पर Google कर्मचारियों द्वारा विरोध प्रदर्शन में शामिल होता है। Google ने हाल ही में घोषणा की है कि नवीनीकरण नहीं किया जाएगा इसका अनुबंध

2013 में, निगरानी प्रथाओं की सीमा एडवर्ड स्नोडेन द्वारा हाइलाइट की गई थी खुलासे। इन्होंने गोपनीयता के अधिकार और खुफिया सेवाओं, सरकारी एजेंसियों और निजी निगमों के बीच डेटा साझा करने के खतरे के बारे में बहुत कुछ सिखाया। आसपास के हालिया विवाद कैम्ब्रिज एनालिटिकाफेसबुक जैसे सोशल मीडिया प्लेटफार्मों के उपयोग के माध्यम से व्यक्तिगत डेटा की कटाई गंभीर आशंका पैदा कर रही है, इस बार जनसांख्यिकीय चुनावों में हस्तक्षेप और हस्तक्षेप से अधिक जो अभिव्यक्ति की स्वतंत्रता के अधिकार को नुकसान पहुंचाता है।

इस बीच, महत्वपूर्ण डेटा विश्लेषकों को चुनौती दी भेदभावपूर्ण प्रथाओं एआई के "सफेद लड़के की समस्या" के साथ जुड़े हुए हैं। यह चिंता है कि मौजूदा डेटा पर प्रशिक्षित एआई सिस्टम मौजूदा नस्लीय और लिंग रूढ़िवादों को दोहराते हैं जो पुलिस, न्यायिक निर्णयों या रोजगार जैसे क्षेत्रों में भेदभावपूर्ण प्रथाओं को कायम रखते हैं।

एआई दोहराने और रूढ़िवादी रूप से प्रवेश कर सकते हैं।
एआई दोहराने और रूढ़िवादी रूप से प्रवेश कर सकते हैं।
Ollyy / Shutterstock.com

अस्पष्ट बॉट्स

हाल ही में प्रकाशित एक अध्ययन में मानव अधिकारों और शारीरिक, राजनीतिक और डिजिटल सुरक्षा के लिए कम्प्यूटेशनल प्रौद्योगिकियों के संभावित खतरे को उजागर किया गया था आर्टिफिशियल इंटेलिजेंस का दुर्भावनापूर्ण उपयोग। इस विश्वविद्यालय के कैम्ब्रिज रिपोर्ट में व्यक्त चिंताओं को गंभीरता से लिया जाना चाहिए। लेकिन हमें इन खतरों से कैसे निपटना चाहिए? क्या मानव अधिकार रोबोटिक्स और एआई के युग के लिए तैयार हैं?

इस युग के लिए मौजूदा मानवाधिकार सिद्धांतों को अद्यतन करने के लिए सतत प्रयास हैं। इनमें शामिल हैं व्यापार और मानवाधिकारों पर संयुक्त राष्ट्र फ्रेमन और गाइडिंग सिद्धांत, लिखने का प्रयास करता है डिजिटल युग के लिए मैग्ना कार्टा और भविष्य के जीवन संस्थान का भविष्य Asilomar एआई सिद्धांतों, जो नैतिक अनुसंधान, मूल्यों का पालन करने और एआई के दीर्घकालिक लाभकारी विकास के प्रति प्रतिबद्धता के लिए दिशानिर्देशों की पहचान करता है।

ये प्रयास सराहनीय हैं लेकिन पर्याप्त नहीं हैं। सरकारों और सरकारी एजेंसियों, राजनीतिक दलों और निजी निगमों, विशेष रूप से अग्रणी तकनीकी कंपनियों को एआई के नैतिक उपयोगों के लिए प्रतिबद्ध होना चाहिए। हमें प्रभावी और लागू करने योग्य विधायी नियंत्रण की भी आवश्यकता है।

जो भी नए उपाय हम पेश करते हैं, यह स्वीकार करना महत्वपूर्ण है कि हमारे जीवन स्वायत्त मशीनों और बुद्धिमान प्रणालियों के साथ तेजी से उलझ गए हैं। यह उलझन चिकित्सा सेवाओं और चिकित्सा, हमारे परिवहन तंत्र में, सामाजिक देखभाल सेटिंग में और पर्यावरण की सुरक्षा के प्रयासों में मानव कल्याण को बढ़ाता है।

लेकिन अन्य क्षेत्रों में यह उलझन चिंताजनक संभावनाओं को फेंकता है। कम्प्यूटेशनल टेक्नोलॉजीज का उपयोग हमारे कार्यों और व्यवहारों को देखने और ट्रैक करने, हमारे चरणों, हमारे स्थान, हमारे स्वास्थ्य, हमारे स्वाद और हमारी दोस्ती का पता लगाने के लिए किया जाता है। ये प्रणालियां मानवीय व्यवहार को आकार देती हैं और हमें आत्म-निगरानी के प्रथाओं की ओर अग्रसर करती हैं जो हमारी आजादी को कम करती हैं और मानवाधिकारों के विचारों और आदर्शों को कमजोर करती हैं।

वार्तालापऔर यहां क्रूक्स निहित है: कम्प्यूटेशनल टेक्नोलॉजीज के दोहरे उपयोग की क्षमता लाभकारी और दुर्भावनापूर्ण प्रथाओं के बीच की रेखा को धुंधला करती है। और भी, कम्प्यूटेशनल टेक्नोलॉजीज व्यक्तिगत नागरिकों, राज्य और इसकी एजेंसियों और निजी निगमों के बीच असमान शक्ति संबंधों में गहराई से फंस गई है। यदि चेक और संतुलन के प्रभावी राष्ट्रीय और अंतरराष्ट्रीय प्रणालियों से छेड़छाड़ की जाती है, तो वे हमारे मानवाधिकारों के लिए एक वास्तविक और चिंताजनक खतरा पैदा करते हैं।

के बारे में लेखक

Birgit Schippers, विज़िटिंग रिसर्च फेलो, सीनेटर जॉर्ज जे मिशेल इंस्टीट्यूट फॉर ग्लोबल पीस, सिक्योरिटी एंड जस्टिस, क्वीन्स यूनिवर्सिटी बेलफास्ट

यह आलेख मूलतः पर प्रकाशित हुआ था वार्तालाप। को पढ़िए मूल लेख.

संबंधित पुस्तकें

{amazonWS: searchindex = पुस्तकें; बिरिट्ज़ शिपर्स = इनरसेफ़; अधिकतमओं = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

InnerSelf पर का पालन करें

फेसबुक आइकनट्विटर आइकनआरएसएस आइकन

ईमेल से नवीनतम प्राप्त करें

{Emailcloak = बंद}

इनर्सल्फ़ आवाज

सबसे ज़्यादा पढ़ा हुआ