दीपफेक वीडियो क्या हैं और उन्हें एक आंखों के झपकी में ढूंढ रहे हैं

दीपफेक वीडियो क्या हैं और उन्हें एक आंखों के झपकी का पता लगाना

ऑनलाइन समुदायों के माध्यम से फैलाने के लिए गलत जानकारी का एक नया रूप तैयार किया गया है क्योंकि 2018 मध्यवर्ती चुनाव अभियान गर्म हो जाते हैं। के बाद "deepfakes" कहा जाता है छद्म नाम ऑनलाइन खाता जो तकनीक को लोकप्रिय बनाता है - जिसने अपना नाम चुना होगा क्योंकि प्रक्रिया "गहरी शिक्षा" नामक एक तकनीकी विधि का उपयोग करती है - ये नकली वीडियो बहुत यथार्थवादी दिखते हैं।

अब तक, लोगों ने गहरे वीडियो का उपयोग किया है अश्लील साहित्य तथा व्यंग्य ऐसा लगता है कि प्रसिद्ध लोग ऐसी चीजें कर रहे हैं जो वे सामान्य रूप से नहीं करेंगे।

लेकिन यह लगभग निश्चित है अभियान सत्र के दौरान गहरे भाग दिखाई देंगे, उम्मीदवारों को चित्रित करने के लिए समर्थन बातें कह रही है या जाने वाले स्थान असली उम्मीदवार नहीं होगा।

यह बराक ओबामा है - या यह है?

चूंकि ये तकनीकें इतनी नई हैं, लोगों को असली वीडियो और गहरे वीडियो के बीच अंतर बताने में परेशानी हो रही है। मेरा काम, मेरे सहयोगी मिंग-चिंग चांग और हमारे पीएचडी के साथ। छात्र यूज़ुन ली, को एक रास्ता मिला है गहराई से वीडियो से वास्तविक वीडियो बताओ। यह स्थायी समाधान नहीं है, क्योंकि तकनीक में सुधार होगा। लेकिन यह एक शुरुआत है, और आशा करता है कि कंप्यूटर लोगों को कथा से सच बोलने में मदद करने में सक्षम होंगे।

वैसे भी 'गहराई' क्या है?

एक गहरी वीडियो बनाना भाषा के बीच अनुवाद करना बहुत पसंद है। जैसी सेवाएं Google अनुवाद मशीन सीखने का उपयोग करें - हजारों ग्रंथों के कंप्यूटर विश्लेषण कई भाषाओं में - करने के लिए शब्द-प्रयोग पैटर्न का पता लगाएं कि वे अनुवाद बनाने के लिए उपयोग करते हैं।

दीपफेक एल्गोरिदम एक ही तरीके से काम करते हैं: वे एक प्रकार की मशीन लर्निंग सिस्टम का उपयोग करते हैं जिसे ए कहा जाता है गहरी तंत्रिका नेटवर्क एक व्यक्ति के चेहरे की गतिविधियों की जांच करने के लिए। फिर वे एक दूसरे व्यक्ति के चेहरे की छवियों को समान आंदोलनों को संश्लेषित करते हैं। ऐसा करने से प्रभावी व्यक्ति उस वीडियो को बनाता है जो स्रोत व्यक्ति द्वारा किए गए कार्यों को करने या कहने के लिए प्रकट होता है।

वीडियो कैसे गहरे हैं।

इससे पहले कि वे सही तरीके से काम कर सकें, गहरे तंत्रिका नेटवर्क को बहुत सारी स्रोत जानकारी की आवश्यकता होती है, जैसे कि व्यक्तियों की तस्वीरें स्रोत या प्रतिरूपण का लक्ष्य। एक गहरी नकली एल्गोरिदम को प्रशिक्षित करने के लिए उपयोग की जाने वाली अधिक छवियां, डिजिटल प्रतिरूपण जितना अधिक यथार्थवादी होगा।

झपकी का पता लगाना

इस नए प्रकार के एल्गोरिदम में अभी भी त्रुटियां हैं। उनमें से एक को सिमुलेट चेहरे झपकी के साथ क्या करना है - या नहीं। स्वस्थ वयस्क इंसान झपकी कहीं भी प्रत्येक 2 और 10 सेकंड के बीच, और एक झपकी लेता है एक सेकंड के दसवें और चार-दसवें के बीच। बात करने वाले व्यक्ति के वीडियो में देखना सामान्य होगा। लेकिन ऐसा नहीं है कि कई गहरे वीडियो में क्या होता है।

बात करते समय एक असली व्यक्ति झपकी देता है।

एक नकली चेहरा एक वास्तविक व्यक्ति के तरीके को झपकी नहीं देता है।

जब किसी व्यक्ति की चेहरे की छवियों पर गहराई से एल्गोरिदम प्रशिक्षित किया जाता है, तो यह उन फ़ोटो पर निर्भर करता है जो इंटरनेट पर उपलब्ध हैं जिनका उपयोग प्रशिक्षण डेटा के रूप में किया जा सकता है। यहां तक ​​कि उन लोगों के लिए भी जिन्हें अक्सर फोटोग्राफ किया जाता है, उनकी छवियां बंद होने वाली कुछ छवियां ऑनलाइन उपलब्ध होती हैं। न केवल उस दुर्लभ तस्वीरें हैं - क्योंकि लोगों की आंखें ज्यादातर समय खुली होती हैं - लेकिन फोटोग्राफर आमतौर पर उन छवियों को प्रकाशित नहीं करते हैं जहां मुख्य विषयों की आंखें बंद होती हैं।

लोगों को झपकी देने वाली छवियों के प्रशिक्षण के बिना, गहरे रंग के एल्गोरिदम सामान्य रूप से झुर्रियों वाले चेहरे बनाने की संभावना कम होती हैं। जब हम झपकी की समग्र दर की गणना करते हैं, और तुलनात्मक रूप से प्राकृतिक सीमा के साथ तुलना करते हैं, तो हमने पाया कि वास्तविक लोगों की तुलना में गहरेफ़ेक वीडियो में वर्ण बहुत कम बार-बार झपकी देते हैं। हमारा शोध मशीन सीखने का उपयोग करता है वीडियो में आंख खोलने और बंद करने की जांच करें.

यह हमें गहरे दृश्य वीडियो का पता लगाने के लिए एक प्रेरणा देता है। इसके बाद, हम यह पता लगाने के लिए एक तरीका विकसित करते हैं कि वीडियो में व्यक्ति कब झपकी देता है। अधिक विशिष्ट होने के लिए, यह वीडियो के प्रत्येक फ्रेम को प्रश्न में स्कैन करता है, इसमें चेहरों का पता लगाता है और फिर आंखों को स्वचालित रूप से ढूंढता है। यह तब आंखों की उपस्थिति, ज्यामितीय सुविधाओं और आंदोलन का उपयोग करके पता लगाया गया है कि यह पता लगाने के लिए एक और गहरी तंत्रिका नेटवर्क का उपयोग किया जाता है या नहीं।

हम जानते हैं कि हमारा काम गहरेफेक एल्गोरिदम को प्रशिक्षित करने के लिए उपलब्ध डेटा के प्रकार में एक दोष का लाभ उठा रहा है। एक समान दोष के शिकार गिरने से बचने के लिए, हमने खुले और बंद आँखों की छवियों की एक बड़ी पुस्तकालय पर हमारी प्रणाली को प्रशिक्षित किया है। यह विधि अच्छी तरह से काम करती प्रतीत होती है, और नतीजतन, हमने 95 प्रतिशत पहचान दर प्राप्त की है।

यह गहराई का पता लगाने पर अंतिम शब्द नहीं है। तकनीक है तेजी से सुधार, और नकली वीडियो उत्पन्न करने और पहचानने के बीच प्रतिस्पर्धा शतरंज के खेल के समान है। विशेष रूप से, बंद आँखों के साथ चेहरे की छवियों या प्रशिक्षण के लिए वीडियो अनुक्रमों का उपयोग करके गहरे रंग के वीडियो में ब्लिंकिंग जोड़ा जा सकता है। जो लोग जनता को भ्रमित करना चाहते हैं वे झूठे वीडियो बनाने में बेहतर होंगे - और प्रौद्योगिकी समुदाय में हम और दूसरों को उन्हें पहचानने के तरीकों को ढूंढना जारी रखना होगा।वार्तालाप

के बारे में लेखक

सिवेई लियू, कंप्यूटर साइंस के एसोसिएट प्रोफेसर; निदेशक, कंप्यूटर विजन और मशीन लर्निंग लैब, अल्बानी विश्वविद्यालय, न्यू यॉर्क स्टेट यूनिवर्सिटी

यह आलेख मूलतः पर प्रकाशित हुआ था वार्तालाप। को पढ़िए मूल लेख.

संबंधित पुस्तकें

{amazonWS: searchindex = Books; कीवर्ड्स = डीपफेक वीडियो; मैक्सिमस = एक्सएनयूएमएक्स}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

InnerSelf पर का पालन करें

फेसबुक आइकनट्विटर आइकनआरएसएस आइकन

ईमेल से नवीनतम प्राप्त करें

{Emailcloak = बंद}

इनर्सल्फ़ आवाज

सबसे ज़्यादा पढ़ा हुआ