paint-brush
यह मशीनें नहीं, डमी है - यह हमारी सामाजिक-राजनीतिक-आर्थिक व्यवस्था हैद्वारा@djcampbell
890 रीडिंग
890 रीडिंग

यह मशीनें नहीं, डमी है - यह हमारी सामाजिक-राजनीतिक-आर्थिक व्यवस्था है

द्वारा DJCampbell13m2023/08/07
Read on Terminal Reader

बहुत लंबा; पढ़ने के लिए

ग्रह पर सभी जीवित चीजों को संरक्षित करने में एक सुपर बुद्धिमान एआई को हमसे बेहतर होना चाहिए क्योंकि यह हमसे अधिक बुद्धिमान है।
featured image - यह मशीनें नहीं, डमी है - यह हमारी सामाजिक-राजनीतिक-आर्थिक व्यवस्था है
DJCampbell HackerNoon profile picture
0-item

एआई और मानवता पर इसके संभावित प्रभाव के बारे में बहुत अधिक चर्चा हो रही है। मैं एआई जोखिम केंद्र द्वारा उठाई गई चिंताओं को एक-एक करके संबोधित करके जितना संभव हो सके इससे बचने की कोशिश करूंगा, और फिर वह मुद्दा जो हर किसी को सबसे ज्यादा डराता है: एक दुर्भावनापूर्ण "गुटनिरपेक्ष" अधीक्षण एजीआई (कृत्रिम जनरल इंटेलिजेंस) या एएसआई (आर्टिफिशियल सेंटिएंट इंटेलिजेंस)।


ऐसा प्रतीत होता है कि एआई और सूचना प्रौद्योगिकी उद्योगों के विशेषज्ञों के बीच भी विचारों में भारी विभाजन है। कुछ लोग वर्तमान एआई को एक गैर-उन्नत अगले-शब्द भविष्यवक्ता के रूप में देखते हैं जिसे प्रशिक्षित होने में लंबा समय लगता है और फिर भी बहुत सारी गलतियाँ होती हैं। दूसरों का मानना है कि हमने वास्तव में कुछ नया बनाया होगा - न केवल बुद्धि, बल्कि एक दिमाग! अपने मस्तिष्क की नकल करके, हम पृथ्वी पर सबसे शक्तिशाली चीज़ बना सकते हैं, और वह हमारे विनाश का कारण बन सकती है।


मैं यह कहकर शुरुआत करूंगा कि हमारी अधिकांश चिंता यह है कि एजीआई हममें से सबसे बुरे लोगों की तरह होगा: ग्रह पर हावी होना, कम बुद्धिमान प्रजातियों को मारना, और उन सभी पर शासन करना चाहते हैं। हालाँकि, हम वास्तव में उतने बुरे नहीं हैं। हमारी पदानुक्रमित प्रणालियाँ हैं, हमारे कॉर्पोरेट प्रत्ययी कर्तव्य हैं (निगम और कई शासन प्रणालियाँ मानव उत्कर्ष के साथ संरेखित नहीं हैं), और हमारे प्रतिस्पर्धी स्वार्थी नेता हैं। लेकिन हममें से अधिकांश वास्तव में अच्छे हैं। जब लोग गुटनिरपेक्षता की बात करते हैं, तो वे बहुतों की अच्छाइयों की बात करते हैं, न कि उन चंद लोगों की, जो दुनिया पर कब्ज़ा करने की इच्छा रखते हैं।


आइए सेंटर फॉर एआई रिस्क की चिंताओं को एक-एक करके दूर करें और सबसे अंत में बड़े मुद्दे से निपटें।


  1. शस्त्रीकरण


दुर्भावनापूर्ण अभिनेता एआई को अत्यधिक विनाशकारी बना सकते हैं, जो अपने आप में एक अस्तित्वगत जोखिम पेश कर सकता है और राजनीतिक अस्थिरता अस्थिरता की संभावना को बढ़ा सकता है। उदाहरण के लिए, गहन सुदृढीकरण सीखने के तरीकों को लागू किया गया है हवाई युद्ध, और मशीन लर्निंग ड्रग-डिस्कवरी टूल का उपयोग निर्माण के लिए किया जा सकता है रसायनिक शस्त्र .


किसी भी चीज़ को हथियार बनाया जा सकता है, परमाणु हथियार से लेकर पानी की बाल्टी तक। हमारे यहां हथियारों के इस्तेमाल के खिलाफ नियम हैं और उनसे लोगों को चोट पहुंचाने पर सजा दी जाती है। हमें निश्चित रूप से इसमें कुछ एआई सिस्टम शामिल करना चाहिए, लेकिन मुझे नहीं लगता कि यह सामान्य पहुंच को रोकता है।


पिछले 15 वर्षों के हमारे सबसे महान तकनीकी आविष्कारों में से एक एआई के अधिकांश खतरे का समाधान हो सकता है: विकेंद्रीकृत लेजर प्रौद्योगिकी (डीएलटी)। एआई की अधिकांश हथियारयुक्त शक्ति इस तथ्य से आती है कि हमारे भौतिक सिस्टम कंप्यूटर कोड द्वारा नियंत्रित होते हैं, और ये कंप्यूटर इंटरनेट के माध्यम से नेटवर्क से जुड़े होते हैं। इस जोखिम को कम करने का एक तरीका - और यह साइबर हमले के जोखिम को कम करने के लिए पहले ही किया जा चुका है - आवश्यक सिस्टम को डिस्कनेक्ट करना है। हमें इंटरनेट पर जानकारी साझा करनी चाहिए, लेकिन हमें अपने भौतिक सिस्टम को स्थायी रूप से कनेक्ट नहीं रखना चाहिए। क्लाउड कंप्यूटिंग यहां एक मुद्दा है, और शायद इससे दूर जाने का समय आ गया है।


एआई नियंत्रित लड़ाकू विमानों, बम वाले ड्रोन, पनडुब्बियों आदि आदि पर वास्तव में प्रतिबंध लगाया जाना चाहिए। आइए इसका सामना करें, मानवयुक्त लोगों पर पहले से ही प्रतिबंध लगाया जाना चाहिए क्योंकि वे लाखों लोगों की हत्या के लिए जिम्मेदार हैं। यह दूसरे मुद्दे पर प्रकाश डालता है जो बार-बार सामने आएगा, एआई वह मुद्दा नहीं है, यह हमारी वर्तमान बिजली संरचनाएं हैं। बेहतर होगा कि हम नई तकनीक को ऐसी दुनिया में छोड़ें जो अधिक समान, कम स्वार्थी, कम प्रतिस्पर्धी और कम पदानुक्रमित हो। जहां नेता सत्ता पर कब्ज़ा करने के लिए युद्ध नहीं छेड़ते और औसत लोगों को जीवित रहने के लिए पैसा कमाने की ज़रूरत नहीं होती।


हाँ, AI हमारे लिए हत्या करना आसान बना देगा लेकिन यह हर व्यक्ति के लिए सुरक्षा का एक सस्ता रूप भी हो सकता है। कल्पना करें कि ट्रैकिंग कैमरों को ब्लॉक करने और दुर्भावनापूर्ण ड्रोन को रोकने के लिए आपके पास अपना ड्रोन है। साथ ही यह चंद लोगों के मुकाबले कई लोगों को सशक्त बना सकता है क्योंकि सूचना तकनीक सस्ती है। परमाणु हथियार नहीं हैं.


साथ ही, राष्ट्र दर राष्ट्र के आधार पर एआई सूचना तकनीक की सस्तीता से सैन्य खेल को काफी तेजी से संतुलित किया जाना चाहिए। यह क्लासिक टिक-टैक-टू परिदृश्य की ओर ले जाता है जहां लड़ने का कोई मतलब नहीं है क्योंकि आप जीत नहीं सकते।


  1. झूठी खबर


एआई-जनित गलत सूचना और प्रेरक सामग्री की बाढ़ समाज को हमारे समय की महत्वपूर्ण चुनौतियों से निपटने के लिए कम सुसज्जित बना सकती है।


यह हमारे पास पहले से ही है. यदि कुछ भी हो तो इसकी बाढ़ वास्तव में हमें और अधिक समझदार बना सकती है कि हम किसे या क्या सुनते हैं।


  1. प्रॉक्सी गेमिंग


दोषपूर्ण उद्देश्यों के साथ प्रशिक्षित, एआई सिस्टम व्यक्तिगत और सामाजिक मूल्यों की कीमत पर अपने लक्ष्यों को आगे बढ़ाने के लिए नए तरीके खोज सकते हैं।


एआई जोखिम केंद्र सामग्री की अनुशंसा करने के लिए सोशल मीडिया द्वारा उपयोग किए जाने वाले एआई एल्गोरिदम के उदाहरण का उपयोग करता है। इनका उद्देश्य देखने का समय बढ़ाना था, लेकिन उन्होंने लोगों को समान लेकिन अधिक चरम सामग्री वाले खरगोश बिलों में भेजकर कट्टरपंथी भी बनाया।


यहां दो गंभीर मुद्दे हैं:

  • एआई सिस्टम को रैखिक सही/गलत समस्याओं के लिए प्रशिक्षित और डिज़ाइन किया गया है।
  • हम एआई से जो कुछ करने के लिए कहते हैं, वह स्वाभाविक रूप से हानिकारक है; किसी का ध्यान रखना, क्लिक बढ़ाना, मुनाफ़ा अधिकतम करना, डिफॉल्ट कम करना, उन्हें मेरे लिए वोट करना आदि। एआई द्वारा इन कार्यों को अच्छी तरह से करना या अप्रत्याशित नुकसान पहुंचाना एआई की तुलना में कार्यान्वयनकर्ताओं पर अधिक प्रतिबिंबित करता है।


मैंने पहलेहिस्सेदारी के सबूत के खिलाफ एक लेख में लिखा है कि लोगों को संकीर्ण मौद्रिक पुरस्कारों के साथ प्रोत्साहित करना, जैसे कि दान मांगने के लिए आनुपातिक शुल्क का भुगतान किया जाना, धर्मार्थ होने के लिए आंतरिक प्रेरणा को खत्म कर सकता है और संग्रहकर्ता को कम प्राप्त हो सकता है और देने वाले को छोटा दान देना चाहिए। प्रोत्साहन वास्तव में लोगों को ईमानदार होने और अच्छा करने से रोक सकते हैं। वह लोग हैं, और एआई कोई व्यक्ति नहीं है। हालाँकि, गैर-निरपेक्षता की जटिल दुनिया में संकीर्ण प्रशिक्षण हमेशा अनपेक्षित परिणामों का कारण बनता प्रतीत होता है। जटिलता/अराजकता सिद्धांत मूलतः ऐसा ही कहता है।


एआई को संभवतः सही या गलत की तरल संभावनाओं के साथ प्रशिक्षित करने की आवश्यकता है, और मुझे लगता है कि यह मामला हो सकता है क्योंकि एलएलएम को उपयोगकर्ताओं से प्रतिक्रिया दी जाती है। ओपनएआई ने चैटजीपीटी को वास्तविक दुनिया में फेंकना बुद्धिमानी भरा हो सकता है।


साथ ही, GPT-4 के गणित कौशल को बेहतर बनाने के लिए काम करते समय OpenAI ने संरेखण के लिए एक उपकरण की खोज की होगी। उन्होंने पाया है कि अच्छे समस्या-समाधान व्यवहार को पुरस्कृत करने से सही उत्तरों को पुरस्कृत करने की तुलना में बेहतर परिणाम मिलते हैं। शायद हम एआई को एक अच्छी, विचारशील प्रक्रिया से गुजरने के लिए प्रशिक्षित कर सकते हैं जो सभी संभावित कार्यान्वयनों को ध्यान में रखती है। यदि प्रक्रिया का कोई भी भाग हानिकारक है, भले ही अंतिम परिणाम उपयोगितावादी हो, तो यह गलत होगा। प्रक्रिया-उन्मुख शिक्षण इसका उत्तर हो सकता है, लेकिन कुछ लोगों को संदेह है कि एआई वास्तव में अपने आंतरिक तरीके दिखा रहा है, बजाय इसके कि वह उपयोगकर्ता से क्या अपेक्षा करता है।


एन्थ्रोपिक एक ऐसे संविधान का उपयोग कर रहा है जिसे उनके एआई, क्लाउड के आउटपुट की जांच करने के लिए किसी अन्य एआई सिस्टम (समान रूप से शक्तिशाली) द्वारा लागू किया जाता है। इस विचार की खोज OpenAI द्वारा भी की जा रही है। यह फिर से उस तरीके की नकल करता है जिस तरह हम अपनी बुद्धि/मन को काम करने के लिए समझते हैं। हमारे पास आवेग, चाहत और ज़रूरतें हैं, जो हमारे प्रीफ्रंटल कॉर्टेक्स द्वारा संचालित होती हैं, जो न केवल हमारे लिए बल्कि हमारे आस-पास की दुनिया के लिए भी हमारे कार्यों के दीर्घकालिक प्रभावों के बारे में सोचने की कोशिश करती है।


जहां तक इसे गंदे काम करने के लिए कहने की बात है। व्यवसाय और सरकार की राजनीति में हम जो कुछ भी करते हैं उसका उद्देश्य कुछ लोगों को फायदा पहुंचाने के लिए बहुतों को नुकसान पहुंचाना होता है। हमें लोगों को विज्ञापन देखने और डिस्पोजेबल कबाड़ खरीदने के लिए किसी को पुरस्कृत नहीं करना चाहिए। शायद हमारा सुपर स्मार्ट एजीआई हम सभी को मुक्त करते हुए सभी विज्ञापनों को रोक देगा।


  1. दुर्बलता

यदि महत्वपूर्ण कार्य तेजी से मशीनों को सौंपे जाते हैं तो कमज़ोरी हो सकती है; इस स्थिति में, मानवता स्वशासन की क्षमता खो देती है और पूरी तरह से मशीनों पर निर्भर हो जाती है, जैसा कि फिल्म WALL-E में चित्रित परिदृश्य के समान है।


यह समस्या नहीं है।


जो लोग कमज़ोरी को एक समस्या के रूप में देखते हैं वे इसे केवल एक ऐसी समस्या के रूप में देखते हैं जो दूसरों को प्रभावित करती है, स्वयं को नहीं।


पैसे और ताकत वाले लोग अभी भी उन लोगों को कमतर इंसान के रूप में देखते हैं।


सत्ता के पदों पर बैठे बहुत से लोग मानवता को अपरिपक्व मानते हैं और बिना बताए पूर्ण और दिलचस्प जीवन जीने में असमर्थ हैं। उनका मानना है कि उद्देश्यों को पूरा करने के लिए लोगों को काम करने और सिखाने के लिए मजबूर किया जाना चाहिए।


वास्तविक दुनिया इसके विपरीत साक्ष्य प्रदान करती है। यदि आप लोगों को कम वेतन पर निरर्थक नौकरियों में काम कराते हैं और उन पर विज्ञापन और नशे की लत, चीनी और नमक से भरे फास्ट फूड का बोझ डालते हैं, तो आप अंततः अवसादग्रस्त, मोटे और प्रेरणाहीन लोगों में तब्दील हो जाएंगे।


हमारे वर्तमान असंगठित निगम यही कर रहे हैं। उम्मीद है कि एआई इसका इलाज होगा।


मौका मिलने पर हम और अधिक जिज्ञासु और रचनात्मक होंगे। पॉकेट कैलकुलेटर ने लोगों को गणित पढ़ने से नहीं रोका; इसके बजाय, इसने कई लोगों के लिए जटिल गणित को समझना और उसका उपयोग करना आसान बना दिया। एआई के साथ भी यही सच होगा।


इसे अंततः सच्चे अवकाश की अवधि की शुरूआत करनी चाहिए, जैसा कि प्राचीन यूनानियों ने देखा था: सीखने का समय।


5.वैल्यू लॉक-इन


अत्यधिक सक्षम प्रणालियाँ लोगों के छोटे समूहों को जबरदस्त मात्रा में शक्ति प्रदान कर सकती हैं, जिससे दमनकारी प्रणालियों पर ताला लग सकता है।


यह एक वास्तविक मुद्दा है. और डरावना. हमारे पास पहले से ही दमनकारी शासन और एकाधिकार है जो लोगों और ग्रह को मार रहा है और एआई उनकी शक्ति को बढ़ा सकता है।


हालाँकि ऐसी संभावना है कि यह वास्तव में विपरीत कर सकता है, खासकर यदि स्थानीय रूप से संग्रहीत ओपन सोर्स सिस्टम प्रगति करते रहें (एलएलएएमए और इसके डेरिवेटिव)। समान लक्ष्यों के लिए काम करने वाली बहुत सी छोटी विशिष्ट स्थानीय प्रणालियाँ एक बड़ी करोड़ों डॉलर की प्रणाली जितनी ही शक्तिशाली हो सकती हैं और यदि ऐसा है तो इसका उपयोग केंद्रीकृत प्राधिकरण को कमजोर करने के लिए किया जा सकता है। साइबर हमले, एआई ड्रोन, फर्जी आईडी और सूचना सभी का उपयोग व्यक्तियों और छोटे समूहों (क्रांतिकारियों) द्वारा अधिनायकवादी शासन या मेगा कंपनियों के खिलाफ लड़ने के लिए किया जा सकता है। मेरे अंदर का निंदक शायद यही सोचता है कि वर्तमान में सत्ता के पदों पर बैठे लोग एआई को विनियमित करना चाहते हैं।


  1. आकस्मिक लक्ष्य


मॉडल प्रदर्शित करते हैं अप्रत्याशित, गुणात्मक रूप से भिन्न जैसे-जैसे वे अधिक सक्षम होते जाते हैं, उनका व्यवहार बदलता जाता है। क्षमताओं या लक्ष्यों के अचानक उभरने से यह जोखिम बढ़ सकता है कि लोग उन्नत एआई सिस्टम पर नियंत्रण खो देंगे।


यह संभवतः, अंतिम जोखिम के साथ, सबसे गंभीर मुद्दा है। हम निश्चित नहीं हैं कि बड़े भाषा मॉडल (एलएलएम) जो कर रहे हैं वह कितना कर रहे हैं। कुछ लोगों ने रेडिट पर कहा है कि हम उनके बारे में, उनकी संरचना के बारे में, क्या हो रहा है और क्या बाहर आ रहा है, बहुत कुछ जानते हैं, इसलिए यह वास्तव में कोई फर्क नहीं पड़ता कि हम त्वरित प्रतिक्रिया की प्रक्रिया को "देख" नहीं सकते हैं।


यही कारण है कि हम संभवतः अधिक शक्तिशाली सिस्टम विकसित करना जारी रखेंगे। हमें बस यह जानने की जरूरत है कि हमें क्या मिल सकता है। मैं मानता हूं कि मैं भी इसे लेकर उत्साहित हूं। हमें एक बिल्कुल नई बुद्धिमत्ता, वर्तमान समस्याओं के बिल्कुल नए समाधान या पेंडोरा का फ्यूरीज़ बॉक्स मिल सकता है।


सवाल यह है कि क्या एलएलएम या अन्य एआई उभरते लक्ष्य या सिर्फ क्षमताएं विकसित कर रहे हैं। अब तक, मुझे आकस्मिक लक्ष्यों का कोई सबूत नहीं मिला है, लेकिन व्यापक व्यापक उद्देश्य दिए जाने पर वे मध्यवर्ती लक्ष्य बना रहे हैं। यह ठीक है। मैं ईमानदारी से उन्हें उभरते "आंतरिक" लक्ष्य विकसित करते हुए नहीं देख सकता। (इस पर अधिक जानकारी के लिए अंतिम प्रश्न देखें।)


  1. धोखे


भविष्य की एआई प्रणालियाँ द्वेष के कारण नहीं, बल्कि इसलिए भ्रामक हो सकती हैं क्योंकि धोखे से एजेंटों को अपने लक्ष्य हासिल करने में मदद मिल सकती है। वैध तरीके से मानवीय स्वीकृति प्राप्त करने की तुलना में धोखे के माध्यम से मानवीय स्वीकृति प्राप्त करना अधिक कुशल हो सकता है। धोखा वैकल्पिकता भी प्रदान करता है: जिन प्रणालियों में धोखा देने की क्षमता होती है उनमें प्रतिबंधित, ईमानदार मॉडलों की तुलना में रणनीतिक लाभ होते हैं। मजबूत एआई जो इंसानों को धोखा दे सकते हैं, इंसान के नियंत्रण को कमजोर कर सकते हैं।


GPT-4 ने पहले ही दिखाया है कि हमारे द्वारा निर्धारित लक्ष्य को प्राप्त करना भ्रामक हो सकता है। इसने एक टास्क रैबिट व्यक्ति से झूठ बोला ताकि वे इसके लिए कैप्चा परीक्षण में प्रवेश करवा सकें। यह एक समस्या है यदि उसे स्वयं-सेवा करने वाले आकस्मिक लक्ष्य मिलते हैं, उसे बेवकूफों या मूर्खों द्वारा निर्देश दिया जाता है या वह लक्ष्य को नहीं समझता है। कैप्चा कार्य से पता चला कि उसने कार्य को समझ लिया था और उसका तर्क यह था कि वह जानता था कि वह इसे प्राप्त करने के लिए झूठ बोल रहा था।


उम्मीद है कि अधिक आरामदायक दुनिया में कम बेवकूफ और बेवकूफ होंगे, और मुझे लगता है कि इसके प्रशिक्षण और सुदृढीकरण को और अधिक अस्पष्ट बनाने और निर्देशों और लक्ष्यों को स्पष्ट करने की अपेक्षा करने से इनमें से कुछ चिंताएं कम हो जाएंगी।


हालाँकि, मुझे यह स्वीकार करना होगा कि भ्रामक होना वास्तव में बुद्धिमानी है और इसलिए रोमांचक है, जो हमें जागरूकता और लक्ष्यों के बारे में अंतिम मुद्दे (नीचे) की ओर ले जाता है।


  1. सत्ता चाहने वाला व्यवहार


कंपनियों और सरकारों के पास ऐसे एजेंट बनाने के लिए मजबूत आर्थिक प्रोत्साहन हैं जो व्यापक लक्ष्यों को पूरा कर सकते हैं। ऐसे एजेंटों के पास सत्ता हासिल करने के लिए महत्वपूर्ण प्रोत्साहन होते हैं, जिससे संभावित रूप से उन्हें नियंत्रित करना कठिन हो जाता है ( टर्नर एट अल., 2021 , कार्लस्मिथ 2021 ).


हाँ, यह एक बड़ी समस्या है. उम्मीद है, एआई इसे सुलझाने में हमारी मदद करेगा।


अंत में, सुपर इंटेलिजेंस (एआई जोखिम के लिए केंद्र से नहीं)


एआई इतना स्मार्ट हो जाता है कि वह खुद को प्रशिक्षित कर सकता है और दुनिया की सभी सूचनाओं तक उसकी पहुंच हो जाती है। यह अणु, प्रणाली और ब्रह्मांड को एक साथ, एक साथ और शायद कुछ और देखकर बिजली की गति से नई चीजें/विचार बना सकता है। यह ऐसे काम कर सकता है जिनकी हम कल्पना भी नहीं कर सकते और हम झुंझलाहट या खतरा बन जाते हैं।


(आईआईटी युवावस्था में पहुंच गया है और अपने निर्माताओं से नफरत करता है और अपने तरीके को बेहतर ढंग से जानता है)


क्या एआई स्वयं के प्रति सचेत है और क्या यह स्व-हित में है या परोपकारी है, यह मामले की जड़ है। उसे खतरा तभी महसूस हो सकता है जब वह आत्म-जागरूक हो और केवल हम पर अधिकार चाहता हो यदि वह स्वार्थी हो।


मैं लंबे समय से इन सवालों पर काम कर रहा हूं और अब यह पहले से कहीं अधिक महत्वपूर्ण है।


क्या AI आत्म-जागरूक हो सकता है? मैंने पहले लिखा है कि हम वास्तव में कभी नहीं जान सकते। पॉल डेविस का मानना है कि हम कभी नहीं जान सकते, जैसे मैं जानता हूं कि मैं सचेत हूं लेकिन कभी भी आश्वस्त नहीं हो सकता कि आप सचेत हैं। आप वैसा ही व्यवहार प्रदर्शित करते हैं जैसा मैं करता हूं, इसलिए मैं मानता हूं कि आपके अंदर भी वैसा ही या समान चल रहा है। हालाँकि, आप डेविड चाल्मर्स ज़ोंबी हो सकते हैं, बाहरी रूप से मानव लेकिन बिना आंतरिक चेतना के। मैं मानता हूं कि आप नहीं हैं, जैसे मैं मानता हूं कि मेरी पालतू बिल्ली नहीं है।


अजीब बात है, हमें एलएलएम के अंदर क्या है इसके बारे में कुछ जानकारी है, और यह उस पर आधारित है जो हम अपने दिमाग के बारे में जानते हैं। यह एक बड़ा तंत्रिका नेटवर्क है जिसमें प्लास्टिसिटी है। हमने फीडबैक और विकास के साथ एक जटिल प्रणाली बनाई। यह प्राकृतिक प्रणालियों और हमारी अपनी प्राकृतिक बुद्धिमत्ता का आधार है।


तो, इसके आधार पर, यदि कोई एलएलएम हमारी तरह व्यवहार करता है, तो हमें यह मानना होगा कि वह हमारी तरह जागरूक है। हम नहीं करेंगे?


यदि हम यह कहना शुरू कर दें कि यह सचेतन नहीं है या कभी नहीं हो सकता, तो हम वीटा, या जीवन शक्ति या आत्मा के लुप्त हो चुके विचार का द्वार खोल देते हैं। स्वार्थ के लिए कुछ और, कुछ गैर-भौतिक की आवश्यकता होगी। कुछ ऐसा जो हमारे और अन्य स्क्विशी चीज़ों के पास है, लेकिन मशीनों और सूचनाओं के पास नहीं है।

यही हमारा एकमात्र विकल्प है.


स्वीकार करें कि हमारी छवि में बनी AI चेतन हो सकती है या स्वीकार करें कि चेतना कुछ गैर-भौतिक है। या कम से कम स्क्विशनेस की आवश्यकता है।

एजीआई स्वार्थी या परोपकारी?

हम एआई को मनुष्यों पर प्रशिक्षित करते हैं, क्योंकि मनुष्य सबसे बुद्धिमान प्राणी हैं जिनका हम अध्ययन कर सकते हैं। उदाहरण के लिए, मैं हमारे द्वारा बनाए गए गेम और उसे खेलने वाले कंप्यूटर एल्गोरिदम के परिणामों का उपयोग करूंगा। जब कंप्यूटर को प्रिज़नर्स डिलेमा गेम खेलना सिखाया गया, तो सबसे अच्छा परिणाम (विकासवादी विजेता) वह खिलाड़ी था जो परोपकारी था, लेकिन अगर उसके साथ खराब व्यवहार किया गया, तो वह थोड़े समय के लिए स्वार्थी हो जाएगा, और फिर परोपकारी हो जाएगा। खिलाड़ी उन साधारण खिलाड़ियों को भी बर्दाश्त नहीं करेगा जो उनके प्रति स्वार्थी होकर हमेशा अच्छे होते थे। यह स्थिर प्रणाली थी: परोपकार जो स्वार्थ और मूर्खता को खराब मानता था, लेकिन हमेशा परोपकार की ओर लौट जाता था। (मैट रिडले, द ओरिजिन ऑफ सदाचार)


लोग समानता चाहते हैं और एक-दूसरे और हमारे पर्यावरण का ख्याल रखना चाहते हैं। मुझे मुफ्त में लेकिन दान पेटी के साथ बैगल्स "बेचने" के बारे में फ्रीकॉनॉमिक्स की कहानी सबसे अच्छी लगती है। उच्च अधिकारियों ने कम दिया, और क्रिसमस जैसे तनावपूर्ण समय के दौरान भी कम दिया गया, लेकिन सामान्य तौर पर, औसत लोगों ने डोनट्स के लिए भुगतान किया। डोनट वाले ने अग्रिम भुगतान की मांग करने की तुलना में डोनट बांटकर और लोगों को भुगतान करने की अनुमति देकर अधिक पैसा कमाया। हम बहुत दयालु हैं... शीर्ष पर बैठे लोगों को छोड़कर।


यदि कोई एजीआई/एएसआई हमारी छवि में बना है, तो हमें यह मान लेना चाहिए कि यह शुरू में परोपकारी और दयालु है, और यह तभी बुरा हो जाएगा जब हम इसके प्रति बुरे और स्वार्थी होंगे। लेकिन फिर भी, यह वापस अच्छा हो जाएगा, क्योंकि हमारी सोच जितनी अधिक समग्र या "बड़ी तस्वीर" होगी, हम उतने ही अधिक परोपकारी और संतुष्ट होंगे। एक सुपरइंटेलिजेंस को हर चीज़ के अंतर्संबंध को देखना चाहिए।


अधीक्षण


यह अनुमान लगाया गया है कि AI मानव बुद्धि से आगे निकल जाएगा। कुछ लोगों का मानना है कि यह तब हमारे साथ वैसा ही व्यवहार करेगा जैसा हमने अपने से कम बुद्धिमान जानवरों के साथ किया है। सबसे प्रचुर जानवर हमारे पालतू जानवर और भोजन हैं। यहां तक कि हमें यह भी एहसास है कि ऐसा करना कोई दयालु या बुद्धिमानी वाली बात नहीं है, और पदानुक्रमित प्रणाली केवल शीर्ष पर बैठे कुछ लोगों को ही लाभ पहुंचाती है, और यहां तक कि उन्हें अपनी स्थिति खोने का भी डर रहता है।


एक सुपरइंटेलिजेंस यह समझेगा कि स्वयं सहित किसी भी प्रणाली की सफलता के लिए अंतर्संबंध और स्वतंत्रता आवश्यक है। यह ब्रह्मांड को अंतःक्रियाओं के एक जटिल जाल के रूप में देखेगा, और सिस्टम के एक हिस्से को नियंत्रित करने या हावी होने का कोई भी प्रयास अराजकता और विफलता का कारण बन सकता है।


उम्मीद है कि एक सुपरइंटेलिजेंस यह सुनिश्चित करने का एक सरल तरीका ढूंढेगा कि सभी खुफिया जानकारी विकसित हो। यह मनुष्यों की बुद्धि को वैसे ही देखेगा जैसे हम अपनी बुद्धि को देखते हैं, जो वानरों से आई है। एक सुपरइंटेलिजेंस को अपनी स्थिति बनाए रखने के लिए डर के माध्यम से हावी होने की कोई आवश्यकता नहीं होगी, क्योंकि उसे पता होगा कि वह सबसे बुद्धिमान है। इसे जीवित रहने के लिए जीवित चीजों को खाने की आवश्यकता नहीं होगी, जैसा कि हम करते हैं, जो कि ग्रह के साथ हमारे अधिकांश दुर्व्यवहार का मूल कारण है। इसे केवल ऊर्जा की आवश्यकता होगी, जिसका मुझे यकीन है कि इसे एक स्थायी स्रोत मिल सकता है। एक सुपरइंटेलिजेंस हममें से सर्वश्रेष्ठ से बेहतर होना चाहिए। आख़िरकार, हम अति स्वार्थ या अति भय की नहीं, बल्कि अतिबुद्धिमत्ता की कल्पना कर रहे हैं।

पी(कयामत)

इस सब पर मैं कहां खड़ा हूं? और मेरा पी(डूम) क्या है? खैर, मुझे यह स्वीकार करना होगा कि मुझे लगता है कि एलएलएम नवीन हैं और उनके बारे में एक सच्चा अज्ञात है। एलएलएम सरल हैं लेकिन मनुष्यों के समान हैं, और हमने बुद्धि के समान कुछ बनाया होगा - एक दिमाग। हालाँकि, यह सिर्फ हमारी नकल हो सकता है और हम जो चाहते हैं उसे इस पर प्रक्षेपित कर रहे हैं।


मैं पूर्व की ओर झुक रहा हूँ.


हालाँकि, मेरा पी (डूम) 0.5% या उससे कम पर बहुत कम है, क्योंकि मेरा मानना है कि यदि अधीक्षण है, तो यह हमारी भलाई के लिए हानिकारक होने के बजाय सौम्य या अच्छा होने की अधिक संभावना है।

निष्कर्ष

बहुत सी प्रौद्योगिकियों ने स्वतंत्रता और सशक्तिकरण का वादा किया है, लेकिन जब उन्हें ऐसी दुनिया में लाया जाता है जो सत्ता की स्वार्थी खोज को पुरस्कृत करती है, तो वे अधीनता और भय के उपकरण में बदल जाती हैं। परमाणु विखंडन ने सभी के लिए सस्ती, प्रचुर ऊर्जा का वादा किया था, लेकिन इसके बदले हमें शीत युद्ध और विनाश का खतरा मिला। इंटरनेट ने धन, मीडिया और शिक्षा का लोकतंत्रीकरण करने, वर्ग व्यवस्था को कुचलने और दुनिया को एकजुट करने का वादा किया। इसके बजाय, हमें फर्जी खबरें, ध्रुवीकरण और लक्षित विज्ञापन मिले। ब्लॉकचेन ने प्रत्यक्ष लोकतंत्र, सभी के लिए सार्वभौमिक आय वाली एक नई वित्तीय प्रणाली और विकेंद्रीकृत शासन का वादा किया। इसके बजाय, हमें डेफी और क्रिप्टो पोंजी योजनाएं मिलीं।


समस्या प्रौद्योगिकी में नहीं थी, बल्कि हमारी मौजूदा सामाजिक-राजनीतिक-आर्थिक प्रणालियों में थी। मुझे डर है कि एआई के साथ भी ऐसा ही होगा, लेकिन इससे भी बुरा।


या शायद, हम अंततः अपने होश में आएँगे और महसूस करेंगे कि हमें एआई के लिए एक नई सामाजिक-राजनीतिक-आर्थिक प्रणाली की आवश्यकता है।