कृत्रिम बुद्धि कैसे हमें स्वयं को व्यक्त करने में बेहतर बना सकती है

कृत्रिम बुद्धि कैसे हमें स्वयं को व्यक्त करने में बेहतर बना सकती है
Shutterstock

बहस करने की क्षमता, दूसरों के प्रति हमारी तर्क व्यक्त करने के लिए, यह मानव होने के लिए परिभाषित विशेषताओं में से एक है।

तर्क और बहस सभ्य समाज और बौद्धिक जीवन के आधारशिला बनाती है। बहस की प्रक्रिया हमारी सरकारों को चलाती है, वैज्ञानिक प्रयासों की संरचना करती है और धार्मिक विश्वास को ढंकती है। तो क्या हमें चिंता करनी चाहिए कि कृत्रिम बुद्धि में नई प्रगति इन कौशल के साथ कंप्यूटर को लैस करने के लिए कदम उठा रही है?

चूंकि तकनीक हमारे जीवन को दोबारा बदल देती है, हम सभी काम करने के नए तरीकों और बातचीत के नए तरीकों के लिए उपयोग कर रहे हैं। मिलेनियल को और कुछ नहीं पता है। सरकारें और न्यायपालिका लोकतांत्रिक और कानूनी प्रक्रियाओं में नागरिकों को शामिल करने के लिए प्रौद्योगिकी द्वारा प्रस्तावित संभावित क्षमता तक जाग रही हैं। सोशल मीडिया चुनाव प्रक्रियाओं में बड़ी भूमिका निभाते हुए, कुछ राजनेता व्यक्तिगत रूप से खेल से आगे हैं। लेकिन गहन चुनौतियां हैं।

एक अच्छी तरह से बाहर सेट है Upworthy सीईओ एली पेरिसर ने अपनी टेड टॉक में। इसमें वह बताता है कि हम "फ़िल्टर बुलबुले" में कैसे रहना शुरू कर रहे हैं: जब आप Google पर दिए गए शब्द को खोजते हैं तो आप जो देखते हैं वह वही नहीं है जब मैं एक ही शब्द खोजता हूं। फॉक्स न्यूज के मीडिया संगठन, हाल ही में, बीबीसी, सामग्री को वैयक्तिकृत कर रहे हैं, आईडी और लॉगिन का उपयोग यह चुनने के लिए किया जाता है कि कौन सी कहानियां सबसे प्रमुख रूप से प्रदर्शित की जाती हैं। इसका नतीजा यह है कि हम अपने आप को समान विचारधारा वाले व्यक्तियों के गूंज कक्षों में लॉक करने का जोखिम रखते हैं, जबकि हमारे तर्क अधिक एक तरफा, कम संतुलित और अन्य दृष्टिकोणों की कम समझ बन जाते हैं।


TED / यूट्यूब।

गंभीर सोच क्यों महत्वपूर्ण है

एक और चिंता यह है कि जिस तरह से समाचार और सूचना, हालांकि अधिक विशाल, कभी भी कम भरोसेमंद हो रही है - आरोप और प्रतिवाद "फर्जी खबर"अब आम हैं।

ऐसी चुनौतियों के मुकाबले, महत्वपूर्ण सोच के कौशल अब कहीं अधिक महत्वपूर्ण हैं - सबूतों का न्याय और आकलन करने की क्षमता, हमारे गूंज कक्ष के बाहर कदम उठाने और वैकल्पिक दृष्टिकोण से चीजों के बारे में सोचने के लिए, एकीकृत करने के लिए जानकारी, अक्सर टीमों में, किसी भी तरफ संतुलन तर्क और मजबूत, रक्षात्मक निष्कर्ष तक पहुंचते हैं। अरिस्तोटल के बाद, ये तर्क के कौशल हैं जो 2,000 वर्षों से अधिक के लिए दर्शन में अकादमिक शोध का विषय रहे हैं।


इनरसेल्फ से नवीनतम प्राप्त करें


यह तर्क प्रौद्योगिकी के लिए केंद्र (एआरजी-टेक) डंडी विश्वविद्यालय में दर्शनशास्त्र, भाषाविज्ञान और मनोविज्ञान से सिद्धांतों को लेने और विस्तार करने के बारे में है जो हमें बताता है कि मनुष्य कैसे तर्क देते हैं, वे असहमत कैसे हैं, और वे सर्वसम्मति तक कैसे पहुंचते हैं - और उन सिद्धांतों को भवन के लिए एक प्रारंभिक बिंदु बनाते हैं कृत्रिम बुद्धिमान उपकरण जो मानव तर्कों में मॉडल, पहचान, सिखाते हैं और यहां तक ​​कि भाग लेते हैं।

क्षेत्र में आधुनिक शोध के लिए चुनौतियों में से एक को पर्याप्त डेटा मिल रहा है। जैसे एआई तकनीकें ध्यान लगा के पढ़ना या सीखना बड़ी मात्रा में डेटा की आवश्यकता होती है, ध्यान से समीक्षा किए गए उदाहरण जो मजबूत एल्गोरिदम बनाने में मदद कर सकते हैं।

लेकिन इस तरह का डेटा प्राप्त करना वास्तव में कठिन है: यह अत्यधिक प्रशिक्षित विश्लेषकों को दर्दनाक काम के घंटों को दूर करने के लिए लेता है जिस तरह से कुछ हद तक व्याख्याओं को एक साथ रखा गया है।

10 साल पहले, एआरजी-टेक बीबीसी रेडियो 4 प्रोग्राम में बदल गया, नैतिक भूलभुलैया, "स्वर्ण-मानक" बहस का एक उदाहरण के रूप में: सावधानीपूर्वक और मापा नियंत्रण के साथ भावनात्मक, सामयिक मुद्दों पर कठोर, कड़े तर्क। बेहद मूल्यवान, उस डेटा ने तर्कसंगत आधार पर अनुसंधान तकनीक के कार्यक्रम को खिलाया।

तकनीक

इस तरह के मांग डेटा के साथ काम करना मतलब है कि दार्शनिक सिद्धांत से लेकर बड़े पैमाने पर डेटा बुनियादी ढांचे तक सब कुछ परीक्षण में डाल दिया गया है। अक्टूबर 2017 में, हमने दो प्रकार की नई तर्क तकनीक को तैनात करने के लिए बीबीसी रेडियो धर्म और नैतिकता विभाग के साथ एक पायलट चलाया।

पहला "एनालिटिक्स" का एक सेट था। हमने प्रत्येक नैतिक भूलभुलैया बहस का एक विशाल मानचित्र बनाकर शुरू किया, जिसमें हजारों व्यक्तिगत वचन और उन सभी शब्दों की सामग्री के बीच हजारों कनेक्शन शामिल थे। इसके बाद प्रत्येक मानचित्र को अधिकांश केंद्रीय विषयों को निर्धारित करने के लिए एल्गोरिदम का उपयोग करके इन्फोग्राफिक्स की एक श्रृंखला में अनुवाद किया गया था (Google के समान कुछ उपयोग करना पेज वरीयता कलन विधि)। हम स्वचालित रूप से सबसे विभाजक मुद्दों की पहचान करते थे और जहां प्रतिभागी खड़े थे, साथ ही बहस के क्षणों पर जब बहस उबलते बिंदु तक पहुंची, तो तर्क कितने अच्छे थे, और इसी तरह।

परिणाम, पर bbc.arg.tech नैतिक भूलभुलैया के संयोजन के साथ, पहली बार, बहस में वास्तव में क्या होता है यह समझने का सबूत-आधारित तरीका।

दूसरा एक उपकरण था जिसे "झगड़नेवाला", जो आपको नैतिक भूलभुलैया की कुर्सी की भूमिका निभाने और अपना खुद का संस्करण चलाने की अनुमति देता है। यह प्रत्येक प्रतिभागी द्वारा प्रदान किए गए तर्क लेता है और आपको अच्छी बहस के लिए अपनी नाक के बाद, उन्हें नेविगेट करने की अनुमति देता है।

डिबेटर टूल प्रतिभागियों को बहस की अध्यक्षता देता है और उनके कौशल का परीक्षण करता है। (कैसे एआई खुद को व्यक्त करने में हमें बेहतर बना सकता है)
डिबेटर टूल प्रतिभागियों को बहस की अध्यक्षता देता है और उनके कौशल का परीक्षण करता है। बीबीसी / डंडी विश्वविद्यालय एआरजी तकनीक

दोनों पहलुओं का उद्देश्य अंतर्दृष्टि प्रदान करना और बेहतर गुणवत्ता, अधिक प्रतिबिंबित बहस को प्रोत्साहित करना है। एक तरफ, काम की अनुमति देता है सारांश बहस के कौशल में सुधार करने के तरीके, वास्तव में क्या काम करता है के आंकड़ों में सबूत द्वारा संचालित।

दूसरी तरफ उन कौशल को स्पष्ट रूप से सिखाने का अवसर है: ए अपने तर्क का परीक्षण करें बीबीसी टस्टर साइट पर तैनात प्रोटोटाइप नैतिक कौशल की एक छोटी संख्या का पता लगाने के लिए नैतिक भूलभुलैया के उदाहरणों का उपयोग करता है और आपको मशीन के खिलाफ सीधे अपने विट को गड्ढा देता है।

दल बल

आखिरकार, लक्ष्य ऐसी मशीन बनाने का नहीं है जो हमें तर्क में मार सके। एआई सॉफ्टवेयर मानव चर्चा में योगदान करने की संभावना अधिक रोमांचक है - तर्कों के प्रकारों को पहचानना, उन्हें आलोचना करना, वैकल्पिक विचारों की पेशकश करना और जांच के कारण सभी चीजें हैं जो अब एआई की पहुंच में हैं।

और यह यहां है कि असली मूल्य झूठ है - बहस करने वाली टीमों, कुछ मानव, कुछ मशीन, मांग के साथ निपटने के लिए मिलकर काम कर रही हैं, खुफिया विश्लेषण से जटिल प्रबंधन तक व्यवसाय प्रबंधन।

वार्तालापइस तरह की सहयोगी, "मिश्रित पहल" तर्क टीम एआई के साथ बातचीत करने के बारे में सोचने के तरीके को बदलने जा रही हैं - और उम्मीद है कि हमारी सामूहिक तर्क क्षमताओं को भी बदल दें।

के बारे में लेखक

क्रिस रीड, कंप्यूटर साइंस और दर्शनशास्त्र के प्रोफेसर, यूनिवर्सिटी ऑफ ड्यूंडी

यह आलेख मूलतः पर प्रकाशित हुआ था वार्तालाप। को पढ़िए मूल लेख.

संबंधित पुस्तकें:

{amazonWS: searchindex = Books; कीवर्ड्स = मनुष्यों के लिए कृत्रिम बुद्धिमत्ता; मैक्समूलस = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

InnerSelf पर का पालन करें

फेसबुक आइकनट्विटर आइकनआरएसएस आइकन

ईमेल से नवीनतम प्राप्त करें

{Emailcloak = बंद}

इनर्सल्फ़ आवाज

मेरी प्राथमिकताएं सभी गलत थीं
मेरी प्राथमिकताएं सभी गलत थीं
by टेड डब्ल्यू। बैक्सटर

सबसे ज़्यादा पढ़ा हुआ