क्या यह चेहरा सिर्फ कंप्यूटर बिट्स की एक असेंबली है? PHOTOCREO Michal Bednarek / Shutterstock.com
जब आर्टिफिशियल इंटेलिजेंस सिस्टम रचनात्मक होने लगते हैं, तो वे शानदार चीजें बना सकते हैं - और डरावने। मिसाल के तौर पर, एक एआई प्रोग्राम जो दें वेब उपयोगकर्ता संगीत रचना करते हैं एक साथ आभासी जोहान सेबेस्टियन बाख एक प्रोग्राम में नोट्स दर्ज करके, जो उन्हें मिलान करने के लिए बाख-जैसे सामंजस्य बनाता है।
Google द्वारा चलाएं, अप्प ड्रयू महान प्रशंसा ग्राउंडब्रेकिंग और खेलने के लिए मजेदार होने के लिए। इसने भी आकर्षित किया आलोचना, और एआई के खतरों के बारे में चिंताओं को उठाया।
मेरा अध्ययन कैसे उभरती प्रौद्योगिकियां लोगों के जीवन को प्रभावित करती हैं मुझे सिखाया है कि समस्याओं के बारे में बड़े पैमाने पर चिंता की बात है क्या एल्गोरिदम वास्तव में कर सकते हैं संगीत बनाएं या सामान्य रूप से कला। कुछ शिकायतें छोटी लग रही थीं, लेकिन वास्तव में Google की AI थी टिप्पणियों की तरह नहीं थीं बुनियादी नियमों को तोड़ना संगीत रचना का।
वास्तव में, कंप्यूटर के लिए वास्तविक लोगों के व्यवहार की नकल करने के प्रयास भ्रामक और संभावित रूप से हानिकारक हो सकते हैं।
प्रतिरूपण प्रौद्योगिकियाँ
Google के कार्यक्रम ने बाच के संगीत कार्यों के एक्सएनयूएमएक्स में माधुर्य और सद्भाव प्रदान करने वाले नोटों के बीच संबंधों का पता लगाने के लिए विश्लेषण किया। क्योंकि बाख ने रचना के सख्त नियमों का पालन किया, इसलिए कार्यक्रम प्रभावी रूप से उन नियमों को सीख रहा था, इसलिए जब उपयोगकर्ता अपने स्वयं के नोट्स प्रदान करते हैं तो यह उन्हें लागू कर सकता है।
{यूट्यूब}XBfYPp6KF2g{/youtube}
बाख ऐप अपने आप में नया है, लेकिन अंतर्निहित तकनीक नहीं है। के लिए प्रशिक्षित एल्गोरिदम पैटर्न को पहचानें और बनाओ संभाव्य निर्णय लंबे समय से अस्तित्व में हैं। इनमें से कुछ एल्गोरिदम इतने जटिल हैं कि लोग हमेशा समझ में नहीं आता वे कैसे निर्णय लेते हैं या एक विशेष परिणाम उत्पन्न करते हैं।
एआई सिस्टम सही नहीं हैं - उनमें से कई पर भरोसा करते हैं डेटा जो प्रतिनिधि नहीं हैं पूरी आबादी का, या कि हैं मानव पूर्वाग्रहों से प्रभावित। यह पूरी तरह से स्पष्ट नहीं है जो कानूनी रूप से जिम्मेदार हो सकता है जब कोई AI सिस्टम कोई त्रुटि करता है या कोई समस्या उत्पन्न करता है।
अब, हालांकि, कृत्रिम बुद्धिमत्ता प्रौद्योगिकियां पर्याप्त रूप से उन्नत हो रही हैं, जो व्यक्तियों के लेखन या बोलने की शैली, और यहां तक कि चेहरे के भावों में भी सक्षम हैं। यह हमेशा बुरा नहीं होता है: एक काफी सरल एअर इंडिया ने स्टीफन हॉकिंग को दिया संवाद करने की क्षमता अधिक कुशलता से दूसरों के साथ शब्दों की भविष्यवाणी करके वह सबसे अधिक उपयोग करेगा।
अधिक जटिल कार्यक्रम जो मानव आवाज़ की नकल करते हैं विकलांग लोगों की सहायता करें - लेकिन श्रोताओं को धोखा देने के लिए भी इस्तेमाल किया जा सकता है। उदाहरण के लिए, निर्माताओं एक प्रकार की पक्षी, एक आवाज-नकल कार्यक्रम, एक जारी किया है नकली वार्तालाप बराक ओबामा, डोनाल्ड ट्रम्प और हिलेरी क्लिंटन के बीच। यह वास्तविक लग सकता है, लेकिन यह आदान-प्रदान कभी नहीं हुआ।
अच्छे से बुरे तक
फरवरी 2019 में, गैर-लाभकारी कंपनी ओपनएआई ने एक प्रोग्राम बनाया जो कि पाठ उत्पन्न करता है वस्तुतः पाठ से अप्रभेद्य लोगों द्वारा लिखित। यह शैली में एक भाषण "लिख" सकता है जॉन एफ कैनेडी, JRR टोल्किन मेंप्रभु के छल्ले के”या एक छात्र लेखन अमेरिकी गृह युद्ध के बारे में एक स्कूल का असाइनमेंट.
OpenAI के सॉफ्टवेयर द्वारा उत्पन्न पाठ इतना विश्वसनीय है जिसे कंपनी ने चुना है जारी नहीं करने के लिए कार्यक्रम ही।
इसी तरह की तकनीकें फोटो और वीडियो का अनुकरण कर सकती हैं। उदाहरण के लिए, शुरुआती 2018 में, अभिनेता और फिल्म निर्माता जॉर्डन पील ने एक वीडियो बनाया, जो पूर्व अमेरिकी राष्ट्रपति बराक ने कहा था कि ओबामा ने वास्तव में कभी नहीं कहा इन प्रौद्योगिकियों द्वारा उत्पन्न खतरों के बारे में जनता को चेतावनी देने के लिए।
{यूट्यूब}cQ54GDm1eL0{/youtube}
शुरुआती 2019 में, ए नकली नग्न तस्वीर अमेरिकी प्रतिनिधि अलेक्जेंड्रिया Ocasio-Cortez के ऑनलाइन प्रसारित। गढ़े हुए वीडियो, अक्सर कॉल किया गया "deepfakes, ”होने की उम्मीद है तेजी प्रयुक्त चुनाव प्रचार में।
कांग्रेस के सदस्य इस मुद्दे पर गौर करना शुरू कर दिया है 2020 चुनाव से पहले। अमेरिकी रक्षा विभाग जनता को सिखा रहा है कैसे doctored वीडियो स्पॉट करने के लिए और ऑडियो। समाचार संगठनों को पसंद है रायटर पत्रकारों को डीपफेक स्पॉट करने के लिए प्रशिक्षित करना शुरू कर रहा है।
लेकिन, मेरे विचार में, एक और भी बड़ी चिंता बनी हुई है: उपयोगकर्ता नकली सामग्री को अलग करने के लिए तेजी से सीखने में सक्षम नहीं हो सकते हैं क्योंकि एआई तकनीक अधिक परिष्कृत हो जाती है। उदाहरण के लिए, जैसा कि जनता डीपफेक के बारे में जागरूक होने लगी है, एआई का उपयोग पहले से ही और भी अधिक धोखे के लिए किया जा रहा है। अब ऐसे कार्यक्रम हैं जो उत्पन्न कर सकते हैं नकली चेहरे और नकली डिजिटल फिंगरप्रिंट, प्रभावी ढंग से एक संपूर्ण व्यक्ति को तैयार करने के लिए आवश्यक जानकारी - कम से कम कॉर्पोरेट या सरकारी रिकॉर्ड में।
मशीनें सीखती रहती हैं
फिलहाल, लोगों को डिजिटल निर्माण का पता लगाने का मौका देने के लिए इन तकनीकों में पर्याप्त संभावनाएं हैं। Google का बाख संगीतकार कुछ गलतियाँ कीं एक विशेषज्ञ का पता लगा सकता है। उदाहरण के लिए, जब मैंने इसे आज़माया, तो कार्यक्रम ने मुझे प्रवेश करने दिया समानांतर पाँचवें, एक संगीत अंतराल जो बाख धीरे-धीरे परहेज किया। ऐप भी संगीत नियमों को तोड़ा गलत कुंजी में मेलोडी के मेल द्वारा काउंटरपॉइंट का। इसी तरह, OpenAI के टेक्स्ट-जनरेटिंग प्रोग्राम में कभी-कभी "जैसे वाक्यांश लिखे जाते हैं"पानी के नीचे हो रही आग"कि उनके संदर्भों में कोई मतलब नहीं था।
डेवलपर्स अपनी रचनाओं पर काम करते हैं, ये गलतियाँ दुर्लभ हो जाएंगी। प्रभावी रूप से, AI प्रौद्योगिकियां विकसित होंगी और सीखेंगी। बेहतर प्रदर्शन से एआई कार्यक्रमों की मदद के रूप में बेहतर स्वास्थ्य देखभाल सहित - कई सामाजिक लाभ लाने की क्षमता है चिकित्सा पद्धति का लोकतंत्रीकरण करें.
शोधकर्ताओं और कंपनियों को एआई सिस्टम से इन सकारात्मक उपलब्धियों की तलाश करने की स्वतंत्रता देने का मतलब है, धोखे और अन्य सामाजिक समस्याओं को पैदा करने के लिए और अधिक उन्नत तरीके विकसित करने के जोखिम को खोलना। एअर इंडिया अनुसंधान को गंभीर रूप से सीमित कर सकता है उस प्रगति पर अंकुश लगाएं। लेकिन लाभकारी प्रौद्योगिकियां दे रहे हैं बढ़ने के लिए कमरा कोई छोटी कीमत पर नहीं आता है - और दुरुपयोग के लिए क्षमता, चाहे "बाख-जैसे" संगीत बनाने के लिए या लाखों लोगों को धोखा देने के लिए, उन तरीकों से बढ़ने की संभावना है जो लोग अभी तक अनुमान नहीं लगा सकते।
के बारे में लेखक
एना सैंटोस रट्समैन, कानून के सहायक प्रोफेसर, सेंट लुइस विश्वविद्यालय
इस लेख से पुन: प्रकाशित किया गया है वार्तालाप क्रिएटिव कॉमन्स लाइसेंस के तहत। को पढ़िए मूल लेख.
संबंधित पुस्तकें
at इनरसेल्फ मार्केट और अमेज़न