आर्टिफिशियल इंटेलिजेंस अब मानव व्यवहार का अनुकरण कर सकता है और जल्द ही यह खतरनाक रूप से अच्छा होगा

आर्टिफिशियल इंटेलिजेंस अब मानव व्यवहार का अनुकरण कर सकता है और जल्द ही यह खतरनाक रूप से अच्छा होगाक्या यह चेहरा सिर्फ कंप्यूटर बिट्स की एक असेंबली है? PHOTOCREO Michal Bednarek / Shutterstock.com

जब आर्टिफिशियल इंटेलिजेंस सिस्टम रचनात्मक होने लगते हैं, तो वे शानदार चीजें बना सकते हैं - और डरावने। मिसाल के तौर पर, एक एआई प्रोग्राम जो दें वेब उपयोगकर्ता संगीत रचना करते हैं एक साथ आभासी जोहान सेबेस्टियन बाख एक प्रोग्राम में नोट्स दर्ज करके, जो उन्हें मिलान करने के लिए बाख-जैसे सामंजस्य बनाता है।

Google द्वारा चलाएं, अप्प ड्रयू महान प्रशंसा ग्राउंडब्रेकिंग और खेलने के लिए मजेदार होने के लिए। इसने भी आकर्षित किया आलोचना, और एआई के खतरों के बारे में चिंताओं को उठाया।

मेरा अध्ययन कैसे उभरती प्रौद्योगिकियां लोगों के जीवन को प्रभावित करती हैं मुझे सिखाया है कि समस्याओं के बारे में बड़े पैमाने पर चिंता की बात है क्या एल्गोरिदम वास्तव में कर सकते हैं संगीत बनाएं या सामान्य रूप से कला। कुछ शिकायतें छोटी लग रही थीं, लेकिन वास्तव में Google की AI थी टिप्पणियों की तरह नहीं थीं बुनियादी नियमों को तोड़ना संगीत रचना का।

वास्तव में, कंप्यूटर के लिए वास्तविक लोगों के व्यवहार की नकल करने के प्रयास भ्रामक और संभावित रूप से हानिकारक हो सकते हैं।

प्रतिरूपण प्रौद्योगिकियाँ

Google के कार्यक्रम ने बाच के संगीत कार्यों के एक्सएनयूएमएक्स में माधुर्य और सद्भाव प्रदान करने वाले नोटों के बीच संबंधों का पता लगाने के लिए विश्लेषण किया। क्योंकि बाख ने रचना के सख्त नियमों का पालन किया, इसलिए कार्यक्रम प्रभावी रूप से उन नियमों को सीख रहा था, इसलिए जब उपयोगकर्ता अपने स्वयं के नोट्स प्रदान करते हैं तो यह उन्हें लागू कर सकता है।

Google डूडल टीम बाख कार्यक्रम की व्याख्या करती है।

बाख ऐप अपने आप में नया है, लेकिन अंतर्निहित तकनीक नहीं है। के लिए प्रशिक्षित एल्गोरिदम पैटर्न को पहचानें और बनाओ संभाव्य निर्णय लंबे समय से अस्तित्व में हैं। इनमें से कुछ एल्गोरिदम इतने जटिल हैं कि लोग हमेशा समझ में नहीं आता वे कैसे निर्णय लेते हैं या एक विशेष परिणाम उत्पन्न करते हैं।

एआई सिस्टम सही नहीं हैं - उनमें से कई पर भरोसा करते हैं डेटा जो प्रतिनिधि नहीं हैं पूरी आबादी का, या कि हैं मानव पूर्वाग्रहों से प्रभावित। यह पूरी तरह से स्पष्ट नहीं है जो कानूनी रूप से जिम्मेदार हो सकता है जब कोई AI सिस्टम कोई त्रुटि करता है या कोई समस्या उत्पन्न करता है।

अब, हालांकि, कृत्रिम बुद्धिमत्ता प्रौद्योगिकियां पर्याप्त रूप से उन्नत हो रही हैं, जो व्यक्तियों के लेखन या बोलने की शैली, और यहां तक ​​कि चेहरे के भावों में भी सक्षम हैं। यह हमेशा बुरा नहीं होता है: एक काफी सरल एअर इंडिया ने स्टीफन हॉकिंग को दिया संवाद करने की क्षमता अधिक कुशलता से दूसरों के साथ शब्दों की भविष्यवाणी करके वह सबसे अधिक उपयोग करेगा।

अधिक जटिल कार्यक्रम जो मानव आवाज़ की नकल करते हैं विकलांग लोगों की सहायता करें - लेकिन श्रोताओं को धोखा देने के लिए भी इस्तेमाल किया जा सकता है। उदाहरण के लिए, निर्माताओं एक प्रकार की पक्षी, एक आवाज-नकल कार्यक्रम, एक जारी किया है नकली वार्तालाप बराक ओबामा, डोनाल्ड ट्रम्प और हिलेरी क्लिंटन के बीच। यह वास्तविक लग सकता है, लेकिन यह आदान-प्रदान कभी नहीं हुआ।

अच्छे से बुरे तक

फरवरी 2019 में, गैर-लाभकारी कंपनी ओपनएआई ने एक प्रोग्राम बनाया जो कि पाठ उत्पन्न करता है वस्तुतः पाठ से अप्रभेद्य लोगों द्वारा लिखित। यह शैली में एक भाषण "लिख" सकता है जॉन एफ कैनेडी, JRR टोल्किन मेंप्रभु के छल्ले के”या एक छात्र लेखन अमेरिकी गृह युद्ध के बारे में एक स्कूल का असाइनमेंट.

OpenAI के सॉफ्टवेयर द्वारा उत्पन्न पाठ इतना विश्वसनीय है जिसे कंपनी ने चुना है जारी नहीं करने के लिए कार्यक्रम ही।

इसी तरह की तकनीकें फोटो और वीडियो का अनुकरण कर सकती हैं। उदाहरण के लिए, शुरुआती 2018 में, अभिनेता और फिल्म निर्माता जॉर्डन पील ने एक वीडियो बनाया, जो पूर्व अमेरिकी राष्ट्रपति बराक ने कहा था कि ओबामा ने वास्तव में कभी नहीं कहा इन प्रौद्योगिकियों द्वारा उत्पन्न खतरों के बारे में जनता को चेतावनी देने के लिए।

सावधान रहें कि आप किन वीडियो पर विश्वास करते हैं।

शुरुआती 2019 में, ए नकली नग्न तस्वीर अमेरिकी प्रतिनिधि अलेक्जेंड्रिया Ocasio-Cortez के ऑनलाइन प्रसारित। गढ़े हुए वीडियो, अक्सर कॉल किया गया "deepfakes, ”होने की उम्मीद है तेजी प्रयुक्त चुनाव प्रचार में।

कांग्रेस के सदस्य इस मुद्दे पर गौर करना शुरू कर दिया है 2020 चुनाव से पहले। अमेरिकी रक्षा विभाग जनता को सिखा रहा है कैसे doctored वीडियो स्पॉट करने के लिए और ऑडियो। समाचार संगठनों को पसंद है रायटर पत्रकारों को डीपफेक स्पॉट करने के लिए प्रशिक्षित करना शुरू कर रहा है।

लेकिन, मेरे विचार में, एक और भी बड़ी चिंता बनी हुई है: उपयोगकर्ता नकली सामग्री को अलग करने के लिए तेजी से सीखने में सक्षम नहीं हो सकते हैं क्योंकि एआई तकनीक अधिक परिष्कृत हो जाती है। उदाहरण के लिए, जैसा कि जनता डीपफेक के बारे में जागरूक होने लगी है, एआई का उपयोग पहले से ही और भी अधिक धोखे के लिए किया जा रहा है। अब ऐसे कार्यक्रम हैं जो उत्पन्न कर सकते हैं नकली चेहरे तथा नकली डिजिटल फिंगरप्रिंट, प्रभावी ढंग से एक संपूर्ण व्यक्ति को तैयार करने के लिए आवश्यक जानकारी - कम से कम कॉर्पोरेट या सरकारी रिकॉर्ड में।

मशीनें सीखती रहती हैं

फिलहाल, लोगों को डिजिटल निर्माण का पता लगाने का मौका देने के लिए इन तकनीकों में पर्याप्त संभावनाएं हैं। Google का बाख संगीतकार कुछ गलतियाँ कीं एक विशेषज्ञ का पता लगा सकता है। उदाहरण के लिए, जब मैंने इसे आज़माया, तो कार्यक्रम ने मुझे प्रवेश करने दिया समानांतर पाँचवें, एक संगीत अंतराल जो बाख धीरे-धीरे परहेज किया। ऐप भी संगीत नियमों को तोड़ा गलत कुंजी में मेलोडी के मेल द्वारा काउंटरपॉइंट का। इसी तरह, OpenAI के टेक्स्ट-जनरेटिंग प्रोग्राम में कभी-कभी "जैसे वाक्यांश लिखे जाते हैं"पानी के नीचे हो रही आग"कि उनके संदर्भों में कोई मतलब नहीं था।

डेवलपर्स अपनी रचनाओं पर काम करते हैं, ये गलतियाँ दुर्लभ हो जाएंगी। प्रभावी रूप से, AI प्रौद्योगिकियां विकसित होंगी और सीखेंगी। बेहतर प्रदर्शन से एआई कार्यक्रमों की मदद के रूप में बेहतर स्वास्थ्य देखभाल सहित - कई सामाजिक लाभ लाने की क्षमता है चिकित्सा पद्धति का लोकतंत्रीकरण करें.

शोधकर्ताओं और कंपनियों को एआई सिस्टम से इन सकारात्मक उपलब्धियों की तलाश करने की स्वतंत्रता देने का मतलब है, धोखे और अन्य सामाजिक समस्याओं को पैदा करने के लिए और अधिक उन्नत तरीके विकसित करने के जोखिम को खोलना। एअर इंडिया अनुसंधान को गंभीर रूप से सीमित कर सकता है उस प्रगति पर अंकुश लगाएं। लेकिन लाभकारी प्रौद्योगिकियां दे रहे हैं बढ़ने के लिए कमरा कोई छोटी कीमत पर नहीं आता है - और दुरुपयोग के लिए क्षमता, चाहे "बाख-जैसे" संगीत बनाने के लिए या लाखों लोगों को धोखा देने के लिए, उन तरीकों से बढ़ने की संभावना है जो लोग अभी तक अनुमान नहीं लगा सकते।वार्तालाप

के बारे में लेखक

एना सैंटोस रट्समैन, कानून के सहायक प्रोफेसर, सेंट लुइस विश्वविद्यालय

इस लेख से पुन: प्रकाशित किया गया है वार्तालाप क्रिएटिव कॉमन्स लाइसेंस के तहत। को पढ़िए मूल लेख.

संबंधित पुस्तकें

{amazonWS: searchindex = Books; कीवर्ड्स = कृत्रिम बुद्धिमत्ता; मैक्समूलस = 3}

enafarzh-CNzh-TWtlfrdehiiditjamsptrues

InnerSelf पर का पालन करें

गूगल-प्लस आइकनफेसबुक आइकनट्विटर आइकनआरएसएस आइकन

ईमेल से नवीनतम प्राप्त करें

{Emailcloak = बंद}

ताज़ा लेख

इनर्सल्फ़ आवाज

InnerSelf पर का पालन करें

गूगल-प्लस आइकनफेसबुक आइकनट्विटर आइकनआरएसएस आइकन

ईमेल से नवीनतम प्राप्त करें

{Emailcloak = बंद}