फेसबुक की समस्या नकली समाचार से अधिक जटिल है

फेसबुक की समस्या नकली समाचार से अधिक जटिल है

डोनाल्ड ट्रम्प की अप्रत्याशित जीत के मद्देनजर, कई प्रशन में फेसबुक की भूमिका के बारे में उठाया गया है गलत और अत्यधिक पक्षपातपूर्ण जानकारी को बढ़ावा देना राष्ट्रपति पद की दौड़ के दौरान और क्या यह नकली समाचार चुनाव के परिणाम को प्रभावित करते हैं।

कुछ ने निराश किया है सीईओ मार्क ज़करबर्ग सहित फेसबुक का प्रभाव, जिन्होंने कहा था कि यह है "बहुत संभावना नहीं" कि नकली खबर के चुनाव में बहस हो सकती थी लेकिन सोशल नेटवर्क के राजनीतिक महत्व के बारे में सवाल ध्यान से गुजरने के अलावा अधिक हैं।

फेसबुक करें छानने एल्गोरिदम यह समझाने के लिए कि इतने सारे उदारवादी क्लिंटन की जीत में क्यों भरोसा करते हैं? 2012 में रोमनी समर्थक)? और है नकली समाचार फेसबुक पर प्रसारित किया जा रहा है इसका कारण यह है कि इतने सारे ट्रम्प समर्थकों ने उनके उम्मीदवार द्वारा किए गए झूठे विधानों का समर्थन किया है?

लोकप्रिय दावा है कि "फिल्टर बुलबुले" यही वजह है कि फेसबुक पर नकली खबरें बढ़ती हैं, लगभग निश्चित रूप से गलत है। यदि नेटवर्क लोगों को असत्यता पर विश्वास करने के लिए प्रोत्साहित कर रहा है - और यह एक बड़ा है - यदि समस्या मूलभूत मानव सामाजिक प्रवृत्तियों के साथ इंटरैक्ट करती है तो यह समस्या अधिक संभावना है। यह बदलने के लिए कहीं ज्यादा मुश्किल है

एक गलत तरीके से सार्वजनिक

राजनीतिक समाचार के प्रसार में फेसबुक की भूमिका निर्विवाद है। मई 2016 में, 44 प्रतिशत अमेरिकियों उन्होंने कहा कि सोशल मीडिया साइट से खबर मिली है। और फेसबुक के माध्यम से प्रसारित गलत सूचना का प्रसार है निर्विवाद.

यह बहुत ही मुमकिन है, कि एक मंच पर नकली समाचारों की मात्रा जहां बहुत से लोगों को उनकी खबर मिलती है, वे यह समझाने में सहायता कर सकते हैं कि क्यों इतने सारे अमेरिकियों को राजनीति के बारे में गलत बताया गया है.

लेकिन यह कहना मुश्किल है कि यह कैसा है मैं 2008 चुनाव के दौरान झूठी मान्यताओं को बढ़ावा देने में इंटरनेट की भूमिका का अध्ययन करना शुरू कर दिया, 2012 में सोशल मीडिया पर अपना ध्यान केंद्रित करना। निरंतर शोध में, मुझे बहुत ही सशक्त प्रमाण मिले हैं कि सोशल मीडिया ने उम्मीदवारों के बारे में झूठी दावों को स्वीकार करने के लिए पदोन्नत किया था कई असत्य के प्रसार। इसके बजाय, ऐसा लगता है कि 2012 में, 2008 में, ईमेल एक विशिष्ट शक्तिशाली नाली के रूप में जारी रहा झूठ और साजिश सिद्धांतों के लिए सोशल मीडिया के लोगों के विश्वासों पर कोई विश्वसनीय तरीके से पता लगाने योग्य प्रभाव नहीं था।

एक पल के लिए, हालांकि, मान लीजिए कि 2016 2012 और 2008 से भिन्न था। (चुनाव कई अन्य संबंधों में निश्चित रूप से अनूठे थे।)

यदि फेसबुक एक मंच का प्रचार कर रहा है जिसमें नागरिकों को कल्पना से सत्य जानने में कम सक्षम हैं, यह अमेरिकी लोकतंत्र के लिए एक गंभीर खतरा होगा। लेकिन समस्या का नाम देना पर्याप्त नहीं है सोशल मीडिया के माध्यम से गलत सूचना के प्रवाह से लड़ने के लिए, समझना महत्वपूर्ण है कि ऐसा क्यों होता है

फिल्टर बुलबुले को दोष न दें

फेसबुक चाहती है कि उसके उपभोक्ताओं को लगी रहें, जो अभिभूत नहीं हैं, इसलिए यह स्वामित्व सॉफ्टवेयर को नियोजित करता है जो उपयोगकर्ता के समाचार फ़ीड को फ़िल्टर करता है और जो सामग्री दिखाई देगी वह चुनती है जोखिम यह है कि यह टेलरिंग कैसे किया जाता है।

पर्याप्त सबूत हैं कि लोगों को उनके राजनीतिक दृष्टिकोण की पुष्टि करता है कि खबर के लिए तैयार कर रहे हैं फेसबुक के सॉफ़्टवेयर उपयोगकर्ता के पिछले कार्यों से सीखता है; यह अनुमान लगाने की कोशिश करता है कि वे कहां कहानियां हैं जो भविष्य में क्लिक या साझा करने की संभावना रखते हैं। इसकी चरम स्थिति में, यह एक पैदा करता है फिल्टर बुलबुला, जिसमें उपयोगकर्ता केवल उन सामग्री के संपर्क में होते हैं जो उनके पूर्वाग्रहों की पुष्टि करता है तो जोखिम यही है फिल्टर बुलबुले misperceptions को बढ़ावा देने के सत्य छिपा कर

इस स्पष्टीकरण की अपील स्पष्ट है। यह समझना आसान है, इसलिए शायद इसे ठीक करना आसान होगा। व्यक्तिगत समाचार फ़ीड से छुटकारा पाएं, और फिल्टर बुलबुले अब और नहीं हैं

फिल्टर बबल रूपक की समस्या यह है कि यह मानता है कि लोगों को पूरी तरह से दूसरे दृष्टिकोणों से पृथक किया जाता है असल में, अनेक पढ़ाई है दिखाया व्यक्तियों के मीडिया आहार में लगभग हमेशा जानकारी और स्रोत शामिल होते हैं जो उनके राजनीतिक दृष्टिकोण को चुनौती देते हैं। और फेसबुक उपयोगकर्ता डेटा का एक अध्ययन यह पाया गया कि क्रॉस कटिंग की जानकारी के साथ मुठभेड़ व्यापक हैं। दूसरे शब्दों में, झूठे विश्वासों को पकड़े जाने की संभावना लोगों के द्वारा समझाया जाने की संभावना नहीं है अधिक सटीक समाचार के साथ संपर्क की कमी.

इसके बजाय, लोगों की पूर्ववर्ती राजनीतिक पहचान गहराई से उनके विश्वासों को आकार दें। इसलिए भी जब एक ही जानकारी का सामना किया जाए, चाहे वह एक हो समाचार लेख या एक तथ्यों की जांच, विभिन्न राजनीतिक ओरिएंटेशन वाले लोग अक्सर नाटकीय रूप से अलग अर्थ को निकालते हैं।

एक सोचा प्रयोग में मदद मिल सकती है: यदि आप क्लिंटन समर्थक थे, तो क्या आप जानते थे कि उच्च सम्मानित पूर्वानुमान साइट पांचवें तेरहवीं क्लिंटन को केवल जीतने का एक 71 प्रतिशत का मौका दिया? उन बाधाओं एक सिक्का फ्लिप से बेहतर है, लेकिन एक निश्चित बात से दूर मुझे संदेह है कि यह असुविधाजनक सबूत देखने के बावजूद कई डेमोक्रेट चौंक गए थे। वास्तव में, कई इस प्रक्षेपण के महत्वपूर्ण थे चुनाव से पहले के दिनों में।

यदि आपने ट्रम्प के लिए वोट किया है, तो क्या आपने कभी ट्रम्प के इस तर्क पर विवाद का सबूत पाया है कि अमेरिका में मतदाता धोखाधड़ी आम बात है? तथ्य चेकर्स तथा समाचार संगठनों इस मुद्दे को व्यापक रूप से कवर किया है, मजबूत सबूत बताते हुए कि दावा झूठ है। हालांकि एक ट्रम्प समर्थक अनमोजित हो सकता है: सितंबर 2016 पोल में, ट्रम्प समर्थकों के 90 प्रतिशत ने कहा कि वे तथ्यात्मक जांचकर्ताओं पर भरोसा नहीं करते।

फेसबुक = गुस्से में भाग लेने वाले लोग?

यदि सच्चाई से अलगाव वास्तव में गलत जानकारी का मुख्य स्रोत है, तो समाधान स्पष्ट होगा: सच्चाई को और अधिक दृश्यमान बनाएं

दुर्भाग्य से, इसका जवाब आसान नहीं है हमें फेसबुक के प्रश्न पर वापस लाया गया है: क्या सेवा के अन्य पहलू हैं जो उपयोगकर्ता के विश्वासों को बिगाड़ सकते हैं?

कुछ समय पहले शोधकर्ता इस सवाल का आश्वस्त रूप से उत्तर दे सकते हैं, लेकिन ऐसे व्यक्ति के रूप में जिसने अध्ययन किया है कि अन्य इंटरनेट तकनीकों के कारण लोगों को झूठी सूचनाओं पर विश्वास करने के लिए कैसे प्रेरित किया जा सकता है, मैं कुछ शिक्षित अनुमानों को प्रस्तुत करने के लिए तैयार हूं।

दो चीजें हैं जो हम पहले से ही Facebook के बारे में जानते हैं जो झूठी जानकारी के प्रसार को बढ़ावा दे सकती हैं।

सबसे पहले, भावनाएं संक्रामक होती हैं, और वे फेसबुक पर फैल सकती हैं एक बड़े पैमाने पर अध्ययन से पता चला है कि फेसबुक उपयोगकर्ताओं के समाचार फ़ीड में छोटे बदलाव बाद में पोस्ट में व्यक्त की भावनाओं को आकार कर सकते हैं। उस अध्ययन में, भावनात्मक परिवर्तन छोटे थे, लेकिन समाचार फ़ीड में हुए परिवर्तनों में यह बदलाव आया था। जरा सोचो फेसबुक उपयोगकर्ताओं द्वारा अभ्यर्थियों के भ्रष्टाचार, आपराधिक गतिविधि और झूठ के व्यापक आरोपों पर कैसे प्रतिक्रिया दें। यह आश्चर्यजनक नहीं है कि यह लगभग आधा (49 प्रतिशत) सभी उपयोगकर्ताओं ने सोशल मीडिया पर राजनीतिक चर्चा को "गुस्सा" बताया।

जब राजनीति की बात आती है, तो क्रोध एक शक्तिशाली भावना है। यह लोगों को बनाने के लिए दिखाया गया है अधिक पक्षपातपूर्ण झूठ को स्वीकार करने के लिए तैयार और पोस्ट करने और साझा करने की अधिक संभावना है राजनीतिक जानकारी, संभवत: नकली समाचार लेखों सहित, जो उनके विश्वासों को सुदृढ़ करते हैं अगर फेसबुक का उपयोग पक्षपात से गुस्सा आता है, जबकि उन्हें झूठ का पक्षपात भी किया जाता है, तो सटीक जानकारी की उपस्थिति सुनिश्चित करने से कोई फर्क नहीं पड़ता। रिपब्लिकन या डेमोक्रेट, नाराज लोगों ने जानकारी में अपना विश्वास रखा है जो उनकी तरफ से अच्छे दिखते हैं

दूसरा, फेसबुक लोगों की राजनीतिक पहचान को मजबूत करने के लिए लगता है - पहले से ही बड़े पैमाने पर आगे बढ़ रहा है पक्षपातपूर्ण विभाजन। जबकि फेसबुक उन लोगों से जानकारी को ढंक नहीं करता है, जो इससे असहमत हैं, निश्चित रूप से ऐसे दिमाग वाले अन्य लोगों को ढूंढना आसान बना देता है हमारे सोशल नेटवर्क कई लोग शामिल हैं जो हमारे मूल्यों और विश्वासों को साझा करते हैं। और यह एक और तरीका हो सकता है कि फेसबुक राजनीतिक रूप से प्रेरित झूठ को मजबूत कर रहा है। विश्वास अक्सर एक सामाजिक कार्य करते हैं, लोगों को ये परिभाषित करने में मदद करते हैं कि वे कौन हैं और वे दुनिया में कैसे फिट हैं। यह लोगों के लिए राजनीतिक रूप से खुद को देखने के लिए आसान है, अधिक संलग्न वे उन मान्यताओं के लिए हैं जो उस पहचान की पुष्टि करते हैं।

इन दो कारकों - जिस तरह से क्रोध फेसबुक के सोशल नेटवर्क पर फैल सकता है, और यह कैसे उन नेटवर्कों को लोगों की राजनीतिक पहचान को और अधिक केंद्रीय बना सकती है जो वे हैं - संभावित रूप से तथाकथित फिल्टर बुलबुले की तुलना में फेसबुक उपयोगकर्ताओं की गलत मान्यताओं को समझाते हैं।

अगर यह सच है, तो हमारे सामने एक गंभीर चुनौती है। अधिक सटीक जानकारी को प्राथमिकता देने के लिए फेसबुक को इसके फ़िल्टरिंग एल्गोरिथ्म को परिवर्तित करने की संभावना होगी Google पहले से ही है एक समान प्रयास किया। और हाल की रिपोर्टों का सुझाव है कि फेसबुक हो सकता है समस्या को अधिक गंभीरता से लेना जकरबर्ग की टिप्पणी से सुझाव देते हैं

लेकिन ये अंतर्निहित ताकतों को संबोधित करने के लिए कुछ नहीं करता है जो झूठी सूचनाओं का प्रचार करते हैं और उन्हें सुदृढ़ करते हैं: भावनाओं और आपके सामाजिक नेटवर्क के लोग। यह भी स्पष्ट नहीं है कि फेसबुक की ये विशेषताएं "सही" हो सकती हैं या होनी चाहिए। भावनाओं से रहित एक सामाजिक नेटवर्क एक विरोधाभास की तरह लगता है, और जिन लोगों के साथ इंटरैक्ट किया जाता है, उनसे उन लोगों के साथ बातचीत करना ऐसा नहीं है, जो हमारे समाज को गले लगाए।

ऐसा हो सकता है कि फेसबुक शेयर कुछ के लिए दोष का कुछ इस चुनाव वर्ष को प्रसारित किए जाने वाले झूठों के - और उन्होंने चुनाव के पाठ्यक्रम को बदल दिया।

अगर सच है, चुनौती यह पता लगाना होगा कि हम इसके बारे में क्या कर सकते हैं।

वार्तालाप

के बारे में लेखक

आर केली गेटेट, संचार के एसोसिएट प्रोफेसर, ओहियो स्टेट यूनिवर्सिटी

यह आलेख मूलतः पर प्रकाशित हुआ था वार्तालाप। को पढ़िए मूल लेख.

संबंधित पुस्तकें

{amazonWS: searchindex = Books; कीवर्ड्स = फर्जी समाचार; मैक्समूलस = 3}

enafarzh-CNzh-TWtlfrdehiiditjamsptrues

InnerSelf पर का पालन करें

गूगल-प्लस आइकनफेसबुक आइकनट्विटर आइकनआरएसएस आइकन

ईमेल से नवीनतम प्राप्त करें

{Emailcloak = बंद}

ताज़ा लेख

इनर्सल्फ़ आवाज

InnerSelf पर का पालन करें

गूगल-प्लस आइकनफेसबुक आइकनट्विटर आइकनआरएसएस आइकन

ईमेल से नवीनतम प्राप्त करें

{Emailcloak = बंद}