पुरुष - और देश - युद्ध में
नेपोलियन अतीत से सीख सकता था। एडोल्फ नॉर्थन/विकिपीडिया द्वारा पेंटिंग

यह एक घिसी-पिटी बात है कि इतिहास को न जानने के कारण उसे दोहराया जाता है। जैसा कि कई लोगों ने यह भी बताया है कि हम इतिहास से केवल यही सीखते हैं कि हम शायद ही कभी इतिहास से कुछ सीखते हैं। लोग जुटे हैं एशिया में भूमि युद्ध बारंबार। वे बार-बार वही डेटिंग गलतियां दोहराते हैं। लेकिन ऐसा क्यों होता है? और क्या तकनीक इसे खत्म कर देगी?

एक मुद्दा भूलने की बीमारी है और "निकट दृष्टि दोष”: हम यह नहीं देखते हैं कि पिछली घटनाएं वर्तमान के लिए कैसे प्रासंगिक हैं, सामने आने वाले पैटर्न को देखते हुए। नेपोलियन को मॉस्को और स्वीडिश राजा पर अपने मार्च के बीच समानताएं देखनी चाहिए थीं इसी तरह चार्ल्स XII का असफल प्रयास उससे लगभग एक सदी पहले।

हम भी सीखने में बुरा जब कोई बात बिगड़ जाए। यह निर्धारित करने के बजाय कि कोई निर्णय गलत क्यों था और इसे दोबारा होने से कैसे बचा जाए, हम अक्सर घटनाओं के शर्मनाक मोड़ को नजरअंदाज करने की कोशिश करते हैं। इसका मतलब है कि अगली बार जब ऐसी ही स्थिति आती है, तो हम समानता नहीं देखते हैं - और गलती दोहराते हैं।

दोनों जानकारी के साथ समस्याओं को प्रकट करते हैं। पहले मामले में, हम व्यक्तिगत या ऐतिहासिक जानकारी को याद रखने में विफल रहते हैं। दूसरे में, उपलब्ध होने पर हम जानकारी को एनकोड करने में विफल रहते हैं।


आंतरिक सदस्यता ग्राफिक


उस ने कहा, हम तब भी गलतियाँ करते हैं जब हम कुशलता से यह अनुमान नहीं लगा पाते कि क्या होने वाला है। शायद स्थिति सोचने के लिए बहुत जटिल या बहुत समय लेने वाली है। या जो हो रहा है उसका गलत अर्थ निकालने के लिए हम पक्षपाती हैं।

प्रौद्योगिकी की कष्टप्रद शक्ति

लेकिन निश्चित रूप से तकनीक हमारी मदद कर सकती है? अब हम अपने मस्तिष्क के बाहर जानकारी संग्रहीत कर सकते हैं और इसे पुनः प्राप्त करने के लिए कंप्यूटर का उपयोग कर सकते हैं। यह सीखने और याद रखने को आसान बनाना चाहिए, है ना?

जानकारी का भंडारण तब उपयोगी होता है जब इसे अच्छी तरह से पुनर्प्राप्त किया जा सकता है। लेकिन याद रखना वही बात नहीं है जो किसी ज्ञात स्थान या तिथि से फ़ाइल प्राप्त करना है। याद रखने में समानताओं को खोजना और चीजों को दिमाग में लाना शामिल है।

एक आर्टिफिशियल इंटेलिजेंस (एआई) को भी सहज रूप से हमारे दिमाग में समानताएं लाने में सक्षम होना चाहिए - अक्सर अवांछित समानताएं। लेकिन अगर यह संभावित समानताओं को नोटिस करने में अच्छा है (आखिरकार, यह पूरे इंटरनेट और हमारे सभी व्यक्तिगत डेटा को खोज सकता है) तो यह अक्सर गलत लोगों को भी नोटिस करेगा।

विफल तिथियों के लिए, यह ध्यान दिया जा सकता है कि वे सभी रात के खाने में शामिल थे। लेकिन खाने की समस्या कभी नहीं रही। और यह महज संयोग था कि मेज पर ट्यूलिप थे - उनसे बचने का कोई कारण नहीं था। हम अक्सर डेटिंग की गलतियां दोहराते हैं। 

इसका मतलब है कि यह हमें उन चीजों के बारे में चेतावनी देगा जिनकी हमें परवाह नहीं है, संभवतः कष्टप्रद तरीके से। इसकी संवेदनशीलता को कम करने का मतलब है कि जरूरत पड़ने पर चेतावनी न मिलने का खतरा बढ़ जाना।

यह एक मौलिक समस्या है और किसी भी सलाहकार के लिए उतना ही लागू होता है: सतर्क सलाहकार अक्सर भेड़िया रोएगा, आशावादी सलाहकार जोखिमों को याद करेगा।

एक अच्छा सलाहकार वह होता है जिस पर हम भरोसा करते हैं। उनके पास लगभग उसी स्तर की सावधानी है जितनी हम करते हैं, और हम जानते हैं कि वे जानते हैं कि हम क्या चाहते हैं। मानव सलाहकार में इसे खोजना मुश्किल है, और एआई में तो और भी ज्यादा।

प्रौद्योगिकी गलतियों को कहाँ रोकती है? इडियट-प्रूफिंग काम करता है। काटने की मशीनों के लिए आपको अपने हाथों को ब्लेड से दूर रखते हुए बटन दबाए रखने की आवश्यकता होती है। यदि ऑपरेटर अक्षम हो जाता है तो एक "डेड मैन का स्विच" एक मशीन को रोक देता है।

जब दरवाजा खोला जाता है तो माइक्रोवेव ओवन विकिरण को बंद कर देते हैं। मिसाइलों को लॉन्च करने के लिए, दो लोगों को एक कमरे में एक साथ चाबियां घुमाने की जरूरत होती है। यहाँ, सावधान डिजाइन गलतियों को कठिन बना देता है। लेकिन हम कम महत्वपूर्ण स्थितियों के बारे में पर्याप्त परवाह नहीं करते हैं, वहां डिजाइन को कम बेवकूफ-प्रूफ बनाते हैं।

जब प्रौद्योगिकी अच्छी तरह से काम करती है, तो हम अक्सर उस पर बहुत अधिक भरोसा करते हैं। ऑटोपायलट सिस्टम की अद्भुत दक्षता के कारण एयरलाइन पायलटों के पास पहले की तुलना में आज कम वास्तविक उड़ान घंटे हैं। यह बुरी खबर है जब ऑटोपायलट विफल हो जाता है, और पायलट के पास स्थिति को सुधारने के लिए कम अनुभव होता है।

ए का पहला ऑयल प्लेटफॉर्म की नई नस्ल (स्लीपनिर ए) डूब गई क्योंकि इंजीनियरों ने उस पर काम करने वाली ताकतों की सॉफ्टवेयर गणना पर भरोसा किया। मॉडल गलत था, लेकिन इसने परिणामों को इतने सम्मोहक तरीके से प्रस्तुत किया कि वे विश्वसनीय लगे।

हमारी अधिकांश प्रौद्योगिकी आश्चर्यजनक रूप से विश्वसनीय है। उदाहरण के लिए, हम इस बात पर ध्यान नहीं देते कि कैसे इंटरनेट पर डेटा के खोए हुए पैकेट लगातार परदे के पीछे पाए जा रहे हैं, त्रुटि-सुधार कोड कैसे शोर को दूर करते हैं या फ़्यूज़ और अतिरेक कैसे उपकरणों को सुरक्षित बनाते हैं।

लेकिन जब हम जटिलता के स्तर के बाद के स्तर पर ढेर लगाते हैं, तो यह बहुत अविश्वसनीय लगता है। हम नोटिस करते हैं कि जब जूम वीडियो धीमा हो जाता है, एआई प्रोग्राम गलत जवाब देता है या कंप्यूटर क्रैश हो जाता है। फिर भी 50 साल पहले कंप्यूटर या कार का इस्तेमाल करने वाले किसी भी व्यक्ति से पूछें कि वे वास्तव में कैसे काम करते थे, और आप देखेंगे कि वे दोनों कम सक्षम और कम विश्वसनीय थे।

हम तकनीक को तब तक और जटिल बनाते हैं जब तक कि यह उपयोग करने के लिए बहुत कष्टप्रद या असुरक्षित न हो जाए। जैसे-जैसे पुर्जे बेहतर और अधिक विश्वसनीय होते जाते हैं, हम अक्सर जो काम करते हैं उससे चिपके रहने के बजाय नई रोमांचक और उपयोगी सुविधाओं को जोड़ना चुनते हैं। यह अंततः प्रौद्योगिकी को जितना हो सकता है उससे कम विश्वसनीय बनाता है।

गलतियाँ की जाएंगी

यही कारण है कि एआई गलतियों से बचने के लिए दोधारी तलवार है। जब यह काम करता है तो स्वचालन अक्सर चीजों को सुरक्षित और अधिक कुशल बनाता है, लेकिन जब यह विफल हो जाता है तो यह परेशानी को बहुत बड़ा बना देता है। स्वायत्तता का अर्थ है कि स्मार्ट सॉफ़्टवेयर हमारी सोच का पूरक हो सकता है और हमें लोड कर सकता है, लेकिन जब यह वैसा नहीं सोच रहा है जैसा हम चाहते हैं, तो यह गलत व्यवहार कर सकता है।

यह जितना जटिल है, गलतियाँ उतनी ही शानदार हो सकती हैं। जिस किसी ने भी अत्यधिक बुद्धिमान विद्वानों के साथ व्यवहार किया है, वह जानता है कि जब उनका सामान्य ज्ञान विफल हो जाता है तो वे कितनी अच्छी तरह से चीजों को गड़बड़ कर सकते हैं - और एआई के पास बहुत कम मानव सामान्य ज्ञान है।

यह भी AI मार्गदर्शक निर्णय लेने के बारे में चिंता करने का एक गहरा कारण है: वे नई तरह की गलतियां करते हैं. हम इंसान मानवीय गलतियों को जानते हैं, जिसका अर्थ है कि हम उनके लिए देख सकते हैं। लेकिन स्मार्ट मशीनें ऐसी गलतियाँ कर सकती हैं जिनकी हम कभी कल्पना भी नहीं कर सकते.

क्या अधिक है, एआई सिस्टम को मानव द्वारा प्रोग्राम और प्रशिक्षित किया जाता है। और ऐसी प्रणालियों के बहुत सारे उदाहरण हैं पक्षपाती और यहां तक ​​कि धर्मांध बन रहा है. वे पूर्वाग्रहों की नकल करते हैं और मानव दुनिया की गलतियों को दोहराते हैं, तब भी जब इसमें शामिल लोग स्पष्ट रूप से उनसे बचने की कोशिश करते हैं।

अंत में गलतियाँ होती रहेंगी। हम दुनिया के बारे में गलत क्यों हैं, इसके मूलभूत कारण हैं, हमें वह सब कुछ याद क्यों नहीं है जो हमें करना चाहिए, और क्यों हमारी तकनीक हमें परेशानी से बचने में पूरी तरह से मदद नहीं कर सकती है।

लेकिन हम गलतियों के परिणामों को कम करने के लिए काम कर सकते हैं। अनडू बटन और ऑटोसेव ने हमारे कंप्यूटर पर अनगिनत दस्तावेज़ सहेजे हैं। लंदन में स्मारक, सूनामी पत्थर जापान में और अन्य स्मारक हमें कुछ जोखिमों के बारे में याद दिलाने का कार्य करते हैं। डिजाइन के अच्छे अभ्यास हमारे जीवन को सुरक्षित बनाते हैं।

आखिरकार, इतिहास से कुछ सीखना संभव है। हमारा उद्देश्य जीवित रहना और अपनी गलतियों से सीखना होना चाहिए, न कि उन्हें कभी भी होने से रोकना। तकनीक इसमें हमारी मदद कर सकती है, लेकिन हमें इस बारे में सावधानी से सोचने की ज़रूरत है कि हम वास्तव में इससे क्या चाहते हैं - और उसी के अनुसार डिज़ाइन करें।

के बारे में लेखक

एंडर्स सैंडबर्ग, जेम्स मार्टिन रिसर्च फेलो, फ्यूचर ऑफ ह्यूमैनिटी इंस्टीट्यूट एंड ऑक्सफोर्ड मार्टिन स्कूल, यूनिवर्सिटी ऑफ ओक्सफोर्ड

इस लेख से पुन: प्रकाशित किया गया है वार्तालाप क्रिएटिव कॉमन्स लाइसेंस के तहत। को पढ़िए मूल लेख.