2017 में, एक रोबोट ने अपने काम से तंग आकर पानी के फव्वारे में आत्महत्या कर ली। फिर, 2022 में, एक Google इंजीनियर ने कंपनी के चैटबॉट LaMDA के साथ बातचीत के बाद घोषणा की कि तकनीक जागरूक हो गई है। हाल ही में खबर आई थी कि 2021 में टेस्ला के एक सॉफ्टवेयर इंजीनियर पर एक अनियंत्रित रोबोट ने हमला कर दिया था. यह इस डर पर विचार किए बिना है कि मशीनें नौकरियाँ चुरा लेंगी, या क्लासिक कल्पना कि मशीनें दुनिया पर कब्ज़ा कर लेंगी।
हालाँकि हम ब्लेड रनर में मशीनों को प्रतिकृति के रूप में नहीं देखते हैं, लेकिन लोगों में मानवीय गुणों को गैर-मनुष्यों से जोड़ने या उनका गुणगान करने की प्रवृत्ति होती है [1]। यह किसी परिदृश्य का विश्लेषण करने और उसे हमारी समझ में लाने में सक्षम होने का एक तरीका है: हम अपनी नावों और बवंडरों को नाम देते हैं, हम अपने पालतू जानवरों से बात करते हैं, और कहते हैं कि जो सुखद एहसास वे हमें देते हैं वह प्यार है। ऐसी प्रणाली को समझना आसान है जो पहले व्यक्ति में घोषणा करती है "मुझे क्षमा करें, मुझे नहीं पता कि आपकी मदद कैसे करूं" यह स्वीकार करने की तुलना में कि जिस मॉडल से हम बात कर रहे हैं वह एक स्टोकेस्टिक तोते से ज्यादा कुछ नहीं हो सकता है। [2]
इसलिए, मानवरूपी अंतःक्रिया, "एजेंसी के भ्रम" की घटना से संबंधित है, एक मनोवैज्ञानिक अवधारणा जो उन संस्थाओं को स्वायत्त कार्रवाई या नियंत्रण का श्रेय देने की प्रवृत्ति को संदर्भित करती है, जिनके पास वास्तव में ऐसी क्षमताएं नहीं हैं। दूसरे शब्दों में, यह गलत धारणा है कि एक एजेंट (चाहे वह एक व्यक्ति, एक जानवर या एक मशीन हो) अपनी स्वतंत्र इच्छा से कार्य कर रहा है, जबकि वास्तव में उसके कार्य बाहरी कारकों (कम्प्यूटेशनल मामले में, विकास) द्वारा निर्धारित किए जा रहे हैं नियम)।
ऐसी स्थितियों में जहां एआई सिस्टम त्रुटिपूर्ण निर्णय या कार्य करते हैं, इन त्रुटियों को मनुष्यों द्वारा इसकी प्रोग्रामिंग और डिजाइन के परिणामों के बजाय इकाई की "पसंद" के रूप में देखने की प्रवृत्ति होती है, कम से कम इसलिए नहीं क्योंकि यह बताया गया है कि एक का स्वार्थी पूर्वाग्रह मानव जो किसी को नकारात्मक परिणाम के कारण और ज़िम्मेदारी को देखने के लिए प्रेरित करता है, जो स्वयं के लिए जिम्मेदार नहीं है, मानव-मशीन इंटरैक्शन में भी देखा जा सकता है [3]।
धारणा में यह परिवर्तन खतरनाक रूप से मानव रचनाकारों, संचालकों और नियामकों को उनकी जिम्मेदारी से मुक्त करने की ओर झुका हुआ है, न कि न्यायिक विनियमन के मामले के रूप में (जो एक अंतर बना हुआ है और इसके कार्यान्वयन में न केवल विषय की जटिलता के कारण बल्कि कृत्रिमता के कारण भी चुनौतियाँ हैं)। इंटेलिजेंस को अक्सर केवल मशीन लर्निंग के रूप में समझा जाता है और इसका आधार ठीक से संरचित नहीं है। क्या हमें सख्त विनियमन की आवश्यकता है? क्या हमें अधिक जोखिम लेने की आवश्यकता है?), लेकिन एक तकनीकी-नैतिक मुद्दे पर।
आइए 2023 की एक अधिक चरम लेकिन सच्ची घटना पर विचार करें: एक उपयोगकर्ता जो चैटबॉट से भावनात्मक रूप से जुड़ा हुआ था, उसने बॉट के साथ अपने विचार साझा करने और "अपने शब्दों को कार्यों में बदलने" की प्रतिक्रिया के साथ-साथ अन्य संदेश प्राप्त करने के बाद आत्महत्या कर ली। यदि संदेशों की सामग्री और स्नेह समान हैं, तो क्या इस उत्पाद के डेवलपर्स को अदालत द्वारा दोषी ठहराए जाने के कारण कोई अन्य उपयोगकर्ता किसी अन्य चैटबॉट के साथ उसी तरह का व्यवहार करेगा, यह मानते हुए कि यह निष्क्रिय कर दिया गया है? यह सिर्फ कानूनी स्थिति नहीं है. यह एक सामाजिक, मनोवैज्ञानिक और तकनीकी शिक्षा का मुद्दा है।
एआई को मानवीकृत करने की अवधारणा अस्पष्ट है, और एक महत्वपूर्ण चुनौती सार्वभौमिक रूप से स्वीकृत दृष्टिकोण की अनुपस्थिति में है जो एआई को डिजाइन करने और उपयोग करने के लिए सर्वोत्तम प्रथाओं को निर्धारित करती है। जबकि एक इंटरफ़ेस जो मानव व्यवहार की नकल करता है वह अधिक पहुंच योग्य हो सकता है, कोई भी स्पष्ट सीमा यह परिभाषित नहीं कर रही है कि किसी उत्पाद में क्या किया जाना चाहिए या क्या नहीं किया जाना चाहिए। अंततः, उपयोगकर्ता की अस्वीकृति ही एकमात्र सीमित कारक बन जाती है, हालाँकि इंटरफ़ेस के बहुत अधिक अपरिचित होने से पहले संभावित नुकसान प्रकट हो सकता है।
एक उपयोगकर्ता-अनुकूल इंटरफ़ेस उस सिस्टम की जटिलता में कमी है जो इसके पीछे संचालित होता है। लेकिन जब तक सिस्टम कैसे काम करता है, इसके बारे में कोई शिक्षा नहीं है, तब तक उपयोगकर्ता अपने उपयोग के बारे में गंभीर रूप से सोचने में सक्षम नहीं होगा। इसका मतलब यह नहीं है कि हर किसी को प्रोग्रामर बनना चाहिए, लेकिन कम से कम यह समझें कि उनकी स्क्रीन पर आउटपुट डेटा संग्रह, मॉडल विकास और डिज़ाइन के पथ से आता है। वहाँ नियमों का एक सेट हो रहा है। चूँकि मानवीकरण हम उपयोगकर्ताओं की ओर से लगभग अचेतन कार्य है, आइए कम से कम इसे थोड़े से ज्ञान के साथ सीमित रखें।
और एआई के बारे में संचार करते समय मानवरूपता से बचना आसान नहीं है, विशेष रूप से उद्योग, मीडिया और रोजमर्रा की जिंदगी की मानक भाषा पर विचार करते हुए: मशीन लर्निंग , कंप्यूटर विजन , जेनरेटिव मॉडलिंग । आर्टिफिशियल इंटेलिजेंस की धारणाएं भाषा के विशिष्ट उपयोग से प्रभावित हो सकती हैं।
एआई को जिस तरह से प्रस्तुत किया जाता है उसका "ठोस प्रभाव" पड़ता है, खासकर जिस तरह से लोग किए गए काम के लिए जिम्मेदारी और मान्यता वितरित करते हैं। जब इसे केवल मनुष्यों के हाथों में एक उपकरण के रूप में वर्णित किया जाता है, तो यह कुछ व्यक्तियों - जैसे कोड का संचालन करने वाले व्यक्ति - को अधिक जिम्मेदारी और योग्यता प्रदान करता है। दूसरी ओर, यदि एआई में मानवीय गुण हैं - जैसे कि सृजन करने की क्षमता - तो इसे स्वतंत्र विचार और मानसिक क्षमता वाले एजेंट की तरह अधिक श्रेय और जिम्मेदारी के योग्य माना जाता है। [4] जब हम आर्टिफिशियल इंटेलिजेंस से जुड़ी घटनाओं या असामान्य घटनाओं के बारे में समाचार पढ़ते हैं, तो हमारा सामना अक्सर इन शब्दों से होता है।
साथ ही, "बुद्धिमत्ता" का श्रेय यह है कि किसी कार्य के नतीजे के लिए अधिक दोष या श्रेय एक गैर-स्वायत्त रोबोट की तुलना में स्वायत्त व्यवहार वाले रोबोट को दिया गया, भले ही स्वायत्त व्यवहार ने कार्य में सीधे योगदान नहीं दिया हो। [3] इसलिए ये अध्ययन सुझाव देते हैं कि मनुष्य मशीनों की मानवरूपी मानसिक क्षमताओं के आधार पर कंप्यूटर या रोबोट को जिम्मेदारी सौंप सकते हैं।
मशीनों का मानवीकरण न केवल उपकरण की ज़िम्मेदारी और उसके मानव निर्माता की ज़िम्मेदारी के बीच अंतर को बदलता है, बल्कि एक ही समय में मशीन के इरादों या चेतना का आरोपण सच्ची स्वायत्तता और चेतना का गठन करने वाली सीमाओं को धुंधला कर देता है।
हालाँकि, किसी मशीन पर मानवता और संवेदनशीलता का आरोप लगाने में कठिनाई केवल इस तथ्य में नहीं है कि आर्टिफिशियल इंटेलिजेंस ऐसा करने में सक्षम नहीं है और जब वह कहता है, उदाहरण के लिए, कि उसे डर लगता है, तो वह वास्तव में जो सीखा है उसका अनुकरण कर रहा है, दोहरा रहा है वह वाक्यांश जिसके पीछे किसी प्रकार का कोई सार नहीं है। आज भी, चेतना को कैसे परिभाषित किया जाए, इस पर गरमागरम बहस चल रही है। मनुष्य के रूप में हमारी चेतना।
मस्तिष्क कैसे काम करता है इसके बारे में हमारी समझ अभी भी काफी सीमित है। हमें मौलिक रसायन विज्ञान के बारे में काफी ज्ञान है: जिस तरह से न्यूरॉन्स सक्रिय होते हैं, और रासायनिक संकेतों का संचरण। हमें मस्तिष्क के विभिन्न क्षेत्रों के मुख्य कार्यों की भी अच्छी समझ है। हालाँकि, हमें इस बारे में बहुत कम जानकारी है कि ये कार्य हमें कैसे व्यवस्थित करते हैं। कुछ हद तक, सैद्धांतिक अटकलों ने मस्तिष्क में क्या होता है, इसके विस्तृत न्यूरोफिज़ियोलॉजिकल अध्ययन का स्थान ले लिया है। लेकिन उससे आगे क्या होगा? [5] हमारे मन में अपने बारे में यह जादुई धारणा क्यों है? एक ही अनुभव हम पर अलग-अलग प्रभाव क्यों डालता है? क्या हम सब एक ही तरह से एक ही भावना महसूस करते हैं?
यदि मनुष्य होना कुछ ऐसा है, जिसे हम अनुभव करते हैं, फिर भी हमें इसकी पूरी समझ नहीं है कि यह समग्र रूप से क्या है, तो हम कैसे कह सकते हैं कि एक मशीन भी इस जटिलता का अनुभव करती है? मशीनों को मानवीय क्षमताओं से ऊपर उठाकर, हम लोगों के विशेष चरित्र को कम कर देते हैं।
ब्राज़ीलियाई साहित्य के सर्वोच्च सम्मानों में से एक, 2023 जाबुती पुरस्कार के लिए, ब्राज़ीलियाई बुक चैंबर (सीबीएल) ने 1818 क्लासिक के एक संस्करण, फ्रेंकस्टीन को सर्वश्रेष्ठ चित्रण श्रेणी से अयोग्य घोषित करने का निर्णय लिया, क्योंकि कलाकार ने विकास के लिए एआई समाधानों का उपयोग करने की सूचना दी थी। कला। विडंबना यह है कि नॉन-फिक्शन श्रेणी में पुरस्कार के लिए मान्यता प्राप्त पुस्तकों में से एक मानव पर आर्टिफिशियल इंटेलिजेंस के प्रभाव से संबंधित है ("ह्यूमनमेंटे डिजिटल: इंटेलिजेंसिया आर्टिफिशियल सेंट्राडा नो ह्यूमनो", कुछ इस तरह "ह्यूमनली डिजिटल: ह्यूमन-सेंटर्ड आर्टिफिशियल इंटेलिजेंस" अंग्रेजी में, कैसियो पेंटालेओन द्वारा)। एक ओर, हम मशीनों के साथ मानवीय अनुभव के अंतर्संबंध को पहचानते हैं। दूसरी ओर, हम अभी भी यह सत्यापित करने में कामयाब नहीं हुए हैं कि कला उपकरण के रूप में उपयोग किए जाने वाले एल्गोरिदम को सृजन का एक वैध तरीका माना जा सकता है या नहीं, भले ही कलात्मक प्रक्रिया, भले ही मशीन लर्निंग द्वारा की गई हो, कार्रवाई की आवश्यकता होती है ( और एक इंसान की सुंदरता और सौंदर्यशास्त्र की सराहना)।
मशीनें नौकरियाँ नहीं चुरातीं यदि ऐसा करने के लिए उनका अंधाधुंध उपयोग न किया जाए। मशीनें तब तक नहीं मारती जब तक उनका उपयोग हथियार के रूप में न किया जाए। न ही मशीनें पीड़ित होती हैं या सहानुभूति रखती हैं, हालांकि उनके पाठ इसका अनुकरण करते हैं क्योंकि उन्हें हमारे डेटा से प्रशिक्षित किया गया है, वे भावनाओं से भरे हुए हैं जिन्हें केवल हम ही वास्तव में महसूस कर सकते हैं। वे लगभग गोलेम मिथक का आधुनिक संस्करण हैं। मनुष्य गैर-मानवीय बुद्धि से कैसे संबंधित हो सकते हैं? मानवरूपता एक वैध उत्तर है, लेकिन एकमात्र नहीं। और जब इसका उपयोग किया जाता है, तो यह हमें इसके परिणामों के लिए वास्तविक जिम्मेदारी से मुक्त नहीं कर सकता, चाहे वह उचित हो या नहीं: हम।
आर्टिफिशियल इंटेलिजेंस, अंततः, हमारा दर्पण है। और अगर हम इस बात से डरते हैं कि यह कहां जा रहा है, तो यह वास्तव में इसलिए है क्योंकि हम उस रास्ते से डरते हैं जिसे हम बनाने जा रहे हैं।
[1] इप्ले, एन., वेट्ज़, ए., और कैसिओपो, जेटी (2007)। मानव को देखने पर: मानवरूपता का तीन-कारक सिद्धांत। मनोवैज्ञानिक समीक्षा, 114(4), 864-886। https://doi.org/10.1037/0033-295X.114.4.864
[2] श्नाइडरमैन, बी. और मुलर, एम. (2023)। एआई एंट्रोपोमोर्फिज्म पर
[3] कवाई, वाई., मियाके, टी., पार्क, जे. एट अल। रोबोटों के लिए मानवरूपता-आधारित कारण और उत्तरदायित्व गुण। विज्ञान प्रतिनिधि 13, 12234 (2023)। https://doi.org/10.1038/s41598-023-39435-5
[4] एप्सटीन, जेड., लेविन, एस., रैंड, डीजी, और रहवान, आई. (2020)। एआई-जनित कला का श्रेय किसे जाता है? आईसाइंस में (खंड 23, अंक 9, पृष्ठ 101515)। एल्सेवियर बी.वी. https://doi.org/10.1016/j.isci.2020.101515
[5] गोफ, पी. (2023)। चेतना को समझना मस्तिष्क रसायन विज्ञान की खोज से परे है। अमेरिकी वैज्ञानिक
निम्नलिखित संकेत ने इस आलेख में उपयोग की गई छवि उत्पन्न की: "एक दर्पण में दिखने वाले एक आदमी का निर्माण करें, लेकिन दर्पण का आकार रोबोट जैसा है।" सोफिया × DALL·ई