YouTube के एल्गोरिदम लोगों को कट्टरपंथी बना सकते हैं - लेकिन असली समस्या यह है कि हम कोई विचार नहीं करते हैं कि वे कैसे काम करते हैं श्री अस्थाई / शटरस्टॉक

क्या YouTube चरमपंथी बनाता है? ए हाल के एक अध्ययन वैज्ञानिकों के बीच यह तर्क देते हुए कि एल्गोरिदम उस साइट को शक्ति देता है जो कभी भी अधिक चरम वीडियो की सिफारिश करके कट्टरपंथी लोगों की मदद नहीं करता है, सुझाव दिया गया है हाल के वर्षों में।

पेपर, ओपन-एक्सेस जर्नल फर्स्ट सोमवार को प्रस्तुत किया गया, लेकिन अभी तक औपचारिक रूप से सहकर्मी-समीक्षा की गई है, विभिन्न प्रकार के चैनलों द्वारा प्राप्त वीडियो सिफारिशों का विश्लेषण किया गया है। इसने दावा किया कि YouTube का एल्गोरिथ्म स्वतंत्र सामग्री के बारे में मुख्यधारा के मीडिया चैनलों का पक्षधर है, जिससे यह निष्कर्ष निकलता है कि साइट के एल्गोरिदम की तुलना में हानिकारक सामग्री बनाने वाले लोगों के साथ कट्टरता अधिक है।

क्षेत्र में विशेषज्ञ जल्दी थे अध्ययन का जवाबकुछ आलोचना के साथ कागज के तरीके और एल्गोरिथ्म का तर्क देने वाले अन्य लोगों में से एक था कई महत्वपूर्ण कारक और वह डेटा साइंस अकेले हमें जवाब नहीं देंगे.

इस चर्चा के साथ समस्या यह है कि हम वास्तव में इस सवाल का जवाब नहीं दे सकते हैं कि YouTube के एल्गोरिदम लोगों को कट्टरपंथी बनाने में क्या भूमिका निभाते हैं क्योंकि हम यह नहीं समझते कि यह कैसे काम करता है। और यह सिर्फ एक बहुत व्यापक समस्या का एक लक्षण है। ये एल्गोरिदम हमारे दैनिक जीवन में बढ़ती हुई भूमिका निभाते हैं लेकिन किसी भी प्रकार की पारदर्शिता का अभाव है।

यह तर्क देना कठिन है कि YouTube कट्टरता में कोई भूमिका नहीं निभाता है। यह पहली बार प्रौद्योगिकी समाजशास्त्री Zeynep Tufekci द्वारा इंगित किया गया था, जिन्होंने बताया कि कैसे अनुशंसित वीडियो धीरे-धीरे उपयोगकर्ताओं को चलाते हैं अधिक चरम सामग्री की ओर। Tufekci के शब्दों में, जॉगिंग के बारे में वीडियो में अल्ट्रामैराथॉन चलाने के बारे में वीडियो, टीके के बारे में वीडियो साजिश के सिद्धांत और राजनीति के बारे में वीडियो "होलोकॉस्ट इनकार और अन्य परेशान करने वाली सामग्री" को जन्म देते हैं।


आंतरिक सदस्यता ग्राफिक


इस बारे में भी लिखा गया है विस्तार से पूर्व YouTube कर्मचारी गिलौम च्सलोट द्वारा जिन्होंने साइट की सिफारिश एल्गोरिथ्म पर काम किया था। कंपनी छोड़ने के बाद से, Chaslot ने उन सिफारिशों को बनाने की कोशिश जारी रखी है अधिक पारदर्शी। वह कहते हैं कि YouTube की सिफारिशें पक्षपाती हैं साजिश के सिद्धांत और तथ्यात्मक रूप से गलत वीडियो, जो लोगों को साइट पर अधिक समय बिताने के लिए मिलता है।

वास्तव में, चौकीदारी को अधिकतम करना YouTube के एल्गोरिदम का पूरा बिंदु है, और यह वीडियो रचनाकारों को किसी भी तरह से ध्यान आकर्षित करने के लिए लड़ने के लिए प्रोत्साहित करता है। कंपनी का सरासर पारदर्शिता की कमी लगभग कैसे यह काम करता है यह साइट पर कट्टरता से लड़ने के लिए लगभग असंभव बना देता है। आखिरकार, पारदर्शिता के बिना, यह जानना मुश्किल है कि स्थिति को बेहतर बनाने के लिए क्या बदला जा सकता है।

YouTube के एल्गोरिदम लोगों को कट्टरपंथी बना सकते हैं - लेकिन असली समस्या यह है कि हम कोई विचार नहीं करते हैं कि वे कैसे काम करते हैं YouTube का एल्गोरिदम कैसे काम करता है यह एक रहस्य बना हुआ है। कौन हैं डैनी / शटरस्टॉक

लेकिन YouTube इस संबंध में असामान्य नहीं है। एल्गोरिदम कैसे काम करता है, इसके बारे में पारदर्शिता की कमी आमतौर पर मामला है जब भी वे बड़े सिस्टम में उपयोग किए जाते हैं, चाहे निजी कंपनियों या सार्वजनिक निकायों द्वारा। साथ ही आपको आगे क्या वीडियो दिखाना है, यह तय करने के लिए, मशीन लर्निंग एल्गोरिदम का उपयोग किया जाता है बच्चों को स्कूलों में रखें, पर फैसला जेल की सजाएं, निर्धारित करें क्रेडिट स्कोर और बीमा दर, और साथ ही के भाग्य आप्रवासियों, नौकरी के उम्मीदवार और विश्वविद्यालय के आवेदक। और आमतौर पर हम समझ नहीं पाते हैं कि ये सिस्टम कैसे अपने निर्णय लेते हैं।

शोधकर्ताओं ने समाज पर इन एल्गोरिदम के प्रभाव को दिखाने के रचनात्मक तरीके खोजे हैं, चाहे वे जांच कर रहे हों प्रतिक्रियावादी अधिकार का उदय या साजिश के सिद्धांतों का प्रसार YouTube पर, या यह दिखा कर कि कैसे खोज इंजन नस्लवादी पूर्वाग्रहों को दर्शाते हैं उन्हें बनाने वाले लोगों की।

मशीन-लर्निंग सिस्टम आमतौर पर बड़े, जटिल और अपारदर्शी होते हैं। उपयुक्त रूप से, उन्हें अक्सर वर्णित किया जाता है काले बक्से, जहां जानकारी अंदर जाती है, और जानकारी या कार्य सामने आते हैं, लेकिन कोई भी यह नहीं देख सकता है कि बीच में क्या होता है। इसका मतलब है कि, जैसा कि हम नहीं जानते कि YouTube अनुशंसा प्रणाली जैसे एल्गोरिदम कैसे काम करते हैं, यह पता लगाने की कोशिश करते हैं कि साइट कैसे काम करती है, जैसे कि बोनट को खोले बिना कार को समझने की कोशिश करना।

बदले में, इसका मतलब यह है कि एल्गोरिदम को क्या करना चाहिए और क्या नहीं करना चाहिए या क्या नहीं करना चाहिए, इसके लिए कानूनों को लिखने की कोशिश करना चाहिए। यह वही है जो YouTube के साथ और कई अन्य मशीन लर्निंग एल्गोरिदम के साथ हो रहा है। हम उनके परिणामों में यह कहने की कोशिश कर रहे हैं कि वे वास्तव में कैसे काम करते हैं, इसकी वास्तविक समझ के बिना। हमें इन पेटेंट प्रौद्योगिकियों को खोलने या कम से कम उन्हें पर्याप्त पारदर्शी बनाने की आवश्यकता है कि हम उन्हें विनियमित कर सकें।

स्पष्टीकरण और परीक्षण

ऐसा करने का एक तरीका एल्गोरिदम प्रदान करने के लिए होगा प्रतिपक्षीय स्पष्टीकरण उनके फैसलों के साथ। इसका अर्थ यह है कि एल्गोरिथ्म को पूर्ण तर्क का वर्णन किए बिना, एक अलग निर्णय लेने के लिए आवश्यक न्यूनतम शर्तों को पूरा करना। उदाहरण के लिए, बैंक ऋणों के बारे में निर्णय लेने वाला एक एल्गोरिदम एक आउटपुट का उत्पादन कर सकता है जो कहता है कि "यदि आपकी उम्र 18 से अधिक थी और आपके पास कोई पूर्व ऋण नहीं था, तो आपको अपना बैंक ऋण स्वीकार करना होगा"। लेकिन यह YouTube और अन्य साइटों के साथ करना मुश्किल हो सकता है जो अनुशंसा एल्गोरिदम का उपयोग करते हैं, क्योंकि सिद्धांत रूप में मंच पर किसी भी वीडियो को किसी भी बिंदु पर अनुशंसित किया जा सकता है।

एक और शक्तिशाली उपकरण एल्गोरिदम परीक्षण और ऑडिटिंग है, जो कि पक्षपाती एल्गोरिदम का निदान करने में विशेष रूप से उपयोगी है। हाल ही के एक मामले में, एक पेशेवर रिज्यूम-स्क्रीनिंग कंपनी ने पाया कि उसका एल्गोरिथ्म था दो कारकों को प्राथमिकता देना नौकरी के प्रदर्शन के सर्वश्रेष्ठ भविष्यवक्ता के रूप में: क्या उम्मीदवार का नाम जारेड था, और यदि उन्होंने हाई स्कूल में लैक्रोस खेला। यह तब होता है जब मशीन अनसुनी हो जाती है।

इस मामले में, फिर से शुरू-स्क्रीनिंग एल्गोरिथ्म ने देखा था कि गोरे लोगों को काम पर रखने का एक उच्च मौका था, और उम्मीदवारों को किराए पर दिए जाने वाले प्रॉक्सी विशेषताओं (जैसे कि जेरेड या लैक्रोस खेल रहे हैं) में सहसंबंधी पाया गया था। YouTube के साथ, एल्गोरिथ्म ऑडिटिंग यह समझने में मदद कर सकती है कि सिफारिश के लिए किस प्रकार के वीडियो को प्राथमिकता दी जाती है - और संभवत: इस बहस को सुलझाने में मदद करें कि YouTube सिफारिशें कट्टरता में योगदान करती हैं या नहीं।

काउंटरफैक्टुअल स्पष्टीकरण का परिचय देना या एल्गोरिथ्म ऑडिटिंग का उपयोग करना एक कठिन, महंगी प्रक्रिया है। लेकिन यह महत्वपूर्ण है, क्योंकि विकल्प बदतर है। यदि एल्गोरिदम अनियंत्रित और अनियंत्रित हो जाते हैं, तो हम अपने मीडिया में षड्यंत्र सिद्धांतकारों और चरमपंथियों का क्रमिक रेंगना देख सकते हैं, और जो कोई भी सबसे अधिक लाभकारी सामग्री का उत्पादन कर सकता है, उस पर हमारा ध्यान जाता है।वार्तालाप

लेखक के बारे में

चिको क्यू। कैमार्गो, डेटा साइंस में पोस्टडॉक्टोरल शोधकर्ता, यूनिवर्सिटी ऑफ ओक्सफोर्ड

इस लेख से पुन: प्रकाशित किया गया है वार्तालाप क्रिएटिव कॉमन्स लाइसेंस के तहत। को पढ़िए मूल लेख.