कैसे शोधकर्ता डीपफेक प्रोपेगैंडा की आने वाली लहर के लिए तैयारी कर रहे हैं
एआई-जनरेट किए गए डिटेक्टर, एआई-जनरेट किए गए नकली वीडियो को स्पॉट करने के लिए सबसे अच्छे उपकरण हैं।
वाशिंगटन पोस्ट गेट्टी इमेज के माध्यम से

एक खोजी पत्रकार एक गुमनाम व्हिसलब्लोअर से एक वीडियो प्राप्त करता है। यह अवैध गतिविधि के लिए राष्ट्रपति के लिए एक उम्मीदवार को दर्शाता है। लेकिन क्या यह वीडियो असली है? यदि ऐसा है, तो यह बहुत बड़ी खबर होगी - जीवन भर का स्कूप - और आगामी चुनावों में पूरी तरह से बदल सकता है। लेकिन पत्रकार एक विशेष उपकरण के माध्यम से वीडियो चलाता है, जो उसे बताता है कि वीडियो वह नहीं है जो ऐसा लगता है। वास्तव में, यह एक "हैdeepfake, "कृत्रिम बुद्धिमत्ता का उपयोग करके बनाया गया वीडियो ध्यान लगा के पढ़ना या सीखना.

दुनिया भर के पत्रकार जल्द ही इस तरह के एक उपकरण का उपयोग कर सकते हैं। कुछ वर्षों में, इस तरह के उपकरण का उपयोग हर कोई अपने सोशल मीडिया फीड में नकली सामग्री को जड़ से करने के लिए भी कर सकता है।

As शोधकर्ताओं जो गहन खोज का अध्ययन कर रहे हैं और पत्रकारों के लिए एक उपकरण विकसित करना, हम इन उपकरणों के लिए एक भविष्य देखते हैं। हालांकि, वे हमारी सभी समस्याओं को हल नहीं करेंगे, और वे विघटन के खिलाफ व्यापक लड़ाई में शस्त्रागार का सिर्फ एक हिस्सा होंगे।

डीपफेक के साथ समस्या

ज्यादातर लोग जानते हैं कि आप जो कुछ भी देखते हैं उस पर विश्वास नहीं कर सकते। पिछले कुछ दशकों में, प्रेमी समाचार उपभोक्ताओं ने फोटो-संपादन सॉफ्टवेयर के साथ जोड़-तोड़ कर छवियों को देखने की आदत डाल ली है। वीडियो, हालांकि, एक और कहानी है। हॉलीवुड के निर्देशक यथार्थवादी दृश्य बनाने के लिए विशेष प्रभावों पर लाखों डॉलर खर्च कर सकते हैं। लेकिन कुछ हज़ार डॉलर के कंप्यूटर उपकरण और कुछ हफ़्ते बिताने के शौकीनों के साथ डीप फ़ेक, शौकीनों का इस्तेमाल करना जीवन को लगभग सही बना सकता है।


आंतरिक सदस्यता ग्राफिक


डीपफेक लोगों को फिल्म के दृश्यों में रखना संभव बनाता है जो वे कभी नहीं थे - टॉम क्रूज़ आयरन मैन की भूमिका निभाते हैं - जो मनोरंजक वीडियो के लिए बनाता है। दुर्भाग्य से, यह भी बनाना संभव बनाता है बिना सहमति के अश्लील साहित्य लोगों के चित्रण अब तक, वे लोग, जिनमें लगभग सभी महिलाएं हैं, सबसे बड़ी शिकार हैं जब डीपफेक तकनीक का दुरुपयोग किया जाता है।

दीपकों का उपयोग राजनीतिक नेताओं के वीडियो बनाने के लिए भी किया जा सकता है, जो वे कभी नहीं कहते थे। बेल्जियम सोशलिस्ट पार्टी ने एक कम गुणवत्ता वाला नॉन्डपीफेक जारी किया, लेकिन अभी भी इसके बारे में वीडियो नहीं है राष्ट्रपति ट्रम्प ने बेल्जियम का अपमान किया, जो उच्च गुणवत्ता वाले डीपफेक के संभावित जोखिमों को दिखाने के लिए पर्याप्त प्रतिक्रिया मिली।

{वेम्बेड Y=poSd2CyDpyA}
कैलिफोर्निया विश्वविद्यालय, बर्कले के हनी फरीद बताते हैं कि डीपफेक कैसे बनाए जाते हैं।

शायद सभी का सबसे अच्छा, वे बनाने के लिए इस्तेमाल किया जा सकता है वास्तविक वीडियो की सामग्री के बारे में संदेह, यह सुझाव देकर कि वे डीपफेक हो सकते हैं।

इन जोखिमों को देखते हुए, डीपफेक का पता लगाने और उन्हें स्पष्ट रूप से लेबल करने में सक्षम होना बेहद मूल्यवान होगा। यह सुनिश्चित करेगा कि नकली वीडियो जनता को बेवकूफ न बनाएं, और वास्तविक वीडियो को प्रामाणिक माना जा सकता है।

नकली खोलना

शोध के क्षेत्र के रूप में डीपफेक का पता लगाना थोड़ा शुरू हो गया था तीन साल पहले। प्रारंभिक कार्य वीडियो में दृश्यमान समस्याओं का पता लगाने पर केंद्रित है, जैसे कि डीपफेक जो पलक न झपके। हालांकि, समय के साथ नकली बेहतर हो गया है वास्तविक वीडियो की नक़ल करना और लोगों और पहचान दोनों साधनों के लिए हाजिर होना कठिन हो जाता है।

डीपफेक डिटेक्शन रिसर्च की दो प्रमुख श्रेणियां हैं। पहले शामिल है लोगों के व्यवहार को देखते हुए वीडियो में। मान लीजिए कि आपके पास किसी प्रसिद्ध व्यक्ति का वीडियो है, जैसे राष्ट्रपति ओबामा। आर्टिफिशियल इंटेलिजेंस इस वीडियो का उपयोग उसके पैटर्न को सीखने के लिए, हाथ के इशारों से भाषण में उसके ठहराव तक कर सकता है। यह तो कर सकते हैं उसके बारे में गहराई से देखें और ध्यान दें कि यह उन पैटर्नों से मेल नहीं खाता है। यह दृष्टिकोण संभवतः कार्य करने का लाभ है भले ही वीडियो की गुणवत्ता अनिवार्य रूप से सही हो।

{वेम्बेड Y=gsv1OsCEad0}
एसआरआई इंटरनेशनल के आरोन लॉसन डीपफेक का पता लगाने के लिए एक दृष्टिकोण का वर्णन करता है।

अन्य शोधकर्ता, हमारी टीम सहित, पर ध्यान केंद्रित किया गया है मतभेद कि सभी डीपफेक हैं असली वीडियो की तुलना में। डीपफेक वीडियो अक्सर वीडियो बनाने के लिए व्यक्तिगत रूप से निर्मित फ़्रेम को मर्ज करके बनाए जाते हैं। इस बात को ध्यान में रखते हुए, हमारी टीम के तरीके एक वीडियो के व्यक्तिगत फ्रेम में चेहरों से आवश्यक डेटा निकालते हैं और फिर समवर्ती फ्रेम के सेट के माध्यम से उन्हें ट्रैक करते हैं। यह हमें सूचना के प्रवाह में एक फ्रेम से दूसरे में विसंगतियों का पता लगाने की अनुमति देता है। हम अपने नकली ऑडियो डिटेक्शन सिस्टम के लिए भी इसी तरह के दृष्टिकोण का उपयोग करते हैं।

ये सूक्ष्म विवरण लोगों को देखने के लिए कठिन हैं, लेकिन दिखाते हैं कि डीपफेक काफी नहीं हैं अभी तक सही। इन जैसे डिटेक्टर किसी भी व्यक्ति के लिए काम कर सकते हैं, न कि केवल कुछ विश्व नेताओं के लिए। अंत में, यह हो सकता है कि दोनों प्रकार के डीपफेक डिटेक्टरों की आवश्यकता होगी।

हाल के डिटेक्शन सिस्टम विशेष रूप से टूल के मूल्यांकन के लिए एकत्र किए गए वीडियो पर बहुत अच्छा प्रदर्शन करते हैं। दुर्भाग्य से, यहां तक ​​कि सबसे अच्छे मॉडल भी करते हैं ऑनलाइन पाए गए वीडियो पर खराब। इन उपकरणों को और अधिक मजबूत और उपयोगी बनाने में सुधार करना अगला कदम है।

डीपफेक डिटेक्टरों का उपयोग किसे करना चाहिए?

आदर्श रूप से, एक गहरा सत्यापन उपकरण सभी के लिए उपलब्ध होना चाहिए। हालांकि, यह तकनीक विकास के शुरुआती चरण में है। शोधकर्ताओं को मोटे तौर पर जारी करने से पहले औजारों को सुधारने और हैकरों से बचाने की जरूरत है।

हालांकि, हालांकि, डीपफेक बनाने के उपकरण उन लोगों के लिए उपलब्ध हैं जो जनता को मूर्ख बनाना चाहते हैं। किनारे बैठना कोई विकल्प नहीं है। हमारी टीम के लिए, पत्रकारों के साथ काम करने के लिए सही संतुलन था, क्योंकि वे गलत सूचना के प्रसार के खिलाफ रक्षा की पहली पंक्ति हैं।

कहानियों को प्रकाशित करने से पहले, पत्रकारों को जानकारी को सत्यापित करने की आवश्यकता होती है। उनके पास पहले से ही और सही तरीके हैं, जैसे कि स्रोतों की जाँच करना और मुख्य तथ्यों को सत्यापित करने के लिए एक से अधिक लोगों को प्राप्त करना। इसलिए उपकरण को अपने हाथों में रखकर, हम उन्हें अधिक जानकारी देते हैं, और हम जानते हैं कि वे अकेले तकनीक पर भरोसा नहीं करेंगे, यह देखते हुए कि यह गलतियाँ कर सकता है।

क्या डिटेक्टर हथियारों की दौड़ जीत सकते हैं?

इससे टीमों को देखना उत्साहजनक है फेसबुक और माइक्रोसॉफ्ट डीपफेक को समझने और पता लगाने के लिए प्रौद्योगिकी में निवेश। इस क्षेत्र को डीपफेक तकनीक में प्रगति की गति बनाए रखने के लिए और अधिक शोध की आवश्यकता है।

पत्रकारों और सोशल मीडिया प्लेटफॉर्म्स को यह पता लगाने की भी ज़रूरत है कि लोगों का पता चलने पर डीपफेक के बारे में उन्हें कैसे चेतावनी दी जाए। शोध से पता चला है कि लोगों को झूठ याद है, लेकिन तथ्य यह नहीं है कि यह एक झूठ था। क्या नकली वीडियो के लिए भी ऐसा ही होगा? बस शीर्षक में "डीपफेक" डालना कुछ प्रकार के कीटाणुनाशक का मुकाबला करने के लिए पर्याप्त नहीं हो सकता है।

यहां रहने के लिए गहरे मैदान हैं। विघटन का प्रबंधन करना और जनता की रक्षा करना पहले से कहीं अधिक चुनौतीपूर्ण होगा क्योंकि कृत्रिम बुद्धिमत्ता अधिक शक्तिशाली होती है। हम एक बढ़ते शोध समुदाय का हिस्सा हैं जो इस खतरे को उठा रहा है, जिसमें पता लगाना अभी पहला कदम है।वार्तालाप

लेखक के बारे में

जॉन सोहरावर्दी, कम्प्यूटिंग और सूचना विज्ञान में डॉक्टरेट छात्र, Rochester प्रौद्योगिकी संस्थान और मैथ्यू राइट, कम्प्यूटिंग सुरक्षा के प्रोफेसर, Rochester प्रौद्योगिकी संस्थान

इस लेख से पुन: प्रकाशित किया गया है वार्तालाप क्रिएटिव कॉमन्स लाइसेंस के तहत। को पढ़िए मूल लेख.