हम AGI बनाने के करीब पहुंच रहे हैं - एक कृत्रिम बुद्धिमत्ता जो मानवीय स्तर पर या उससे भी आगे कई तरह के कार्यों को हल करने में सक्षम है। लेकिन क्या मानवता वास्तव में ऐसी तकनीक के लिए तैयार है जो दुनिया को इतना गहराई से बदल सकती है? क्या हम AGI के साथ जीवित रह सकते हैं, या इस सुपरइंटेलिजेंस से मुठभेड़ हमारी अंतिम गलती होगी?
आइए उन परिदृश्यों का अन्वेषण करें जिन पर आज वैज्ञानिक और उद्यमी विचार कर रहे हैं और यह समझने का प्रयास करें: यदि एजीआई वास्तविकता बन जाए तो मानवता के बचने की क्या संभावनाएं हैं?
आशावादी मानते हैं कि एजीआई को सख्त नियंत्रण में बनाया जा सकता है और बनाया जाना चाहिए, और सही सावधानियों के साथ, यह बुद्धिमत्ता मानवता की सहयोगी बन सकती है, जो जलवायु परिवर्तन से लेकर गरीबी तक वैश्विक मुद्दों को सुलझाने में मदद कर सकती है। एंड्रयू एनजी जैसे उत्साही लोगों ने अपने लेख में
हालाँकि, इन आशावादी विचारों में कमज़ोरियाँ हैं। छोटे लेकिन फिर भी शक्तिशाली AI सिस्टम के साथ अनुभव से पता चलता है कि लोग अभी भी AI के लक्ष्यों को नियंत्रित करने की अपनी क्षमता में पूरी तरह से आश्वस्त नहीं हैं। यदि AGI अपने स्वयं के एल्गोरिदम को बदलना सीखता है, तो इससे ऐसे परिणाम सामने आ सकते हैं जिनकी भविष्यवाणी करना असंभव है। उस स्थिति में, हमारे पास क्या विकल्प होगा - सिस्टम के प्रति बिना शर्त समर्पण या नियंत्रण के लिए निरंतर संघर्ष?
दार्शनिक निक बोस्ट्रोम, लेखक
लेकिन व्यवहार में यह सहयोग कैसा दिखेगा? कैम्ब्रिज विश्वविद्यालय में अस्तित्वगत जोखिम अध्ययन केंद्र (सीएसईआर)
समस्या यह है कि हम परमाणु हथियारों की दौड़ के दौरान पहले ही ऐसा ही परिदृश्य देख चुके हैं। देशों के बीच राजनीतिक असहमति और आपसी अविश्वास एजीआई सुरक्षा पर वैश्विक सहमति बनाने में बाधा बन सकता है। और अगर देश सहमत भी हो जाते हैं, तो क्या वे ऐसी प्रणालियों के लिए आवश्यक दीर्घकालिक निगरानी के लिए तैयार होंगे?
एलन मस्क जैसे निराशावादी मानते हैं कि एजीआई के निर्माण के साथ मानवता के बचने की संभावना चिंताजनक रूप से कम है। 2014 की शुरुआत में ही मस्क ने कहा था कि एजीआई के निर्माण के साथ मानवता के बचने की संभावना चिंताजनक रूप से कम है।
यह परिदृश्य एक "अस्तित्व जाल" का सुझाव देता है, जहाँ हमारा भविष्य का मार्ग AGI के निर्णयों पर निर्भर करता है। निराशावादियों का तर्क है कि यदि AGI एक सुपरइंटेलिजेंट स्तर पर पहुँच जाता है और अपने लक्ष्यों को स्वायत्त रूप से अनुकूलित करना शुरू कर देता है, तो यह मानवता को अनावश्यक या यहाँ तक कि एक बाधा के रूप में मान सकता है। AGI का अप्रत्याशित व्यवहार एक बड़ी चिंता का विषय बना हुआ है: हम बस यह नहीं जानते कि इस तरह की प्रणाली वास्तविक दुनिया में कैसे काम करेगी, और अगर यह मानवता के लिए खतरा पैदा करना शुरू कर दे तो हम समय पर हस्तक्षेप करने में सक्षम नहीं हो सकते हैं।
में
अगर AGI हकीकत बन जाए तो हमारे बचने की संभावना पर क्या असर पड़ सकता है? आइए AI सुरक्षा और नैतिकता के क्षेत्र में अग्रणी विशेषज्ञों द्वारा पहचाने गए चार आवश्यक कारकों पर नज़र डालें।
एजीआई के लिए तैयारी की गति और गुणवत्ता
स्टुअर्ट आर्मस्ट्रांग,
नैतिकता और लक्ष्य निर्धारण
में
वैश्विक सहयोग
में
नियंत्रण और अलगाव प्रौद्योगिकियां
निक बोस्ट्रम,
इसलिए, AGI बनाने का विचार ऐसे गहरे सवाल उठाता है जिनका मानवता ने पहले कभी सामना नहीं किया: हम ऐसी बुद्धिमत्ता के साथ कैसे रह सकते हैं जो सोच, अनुकूलनशीलता और यहाँ तक कि जीवित रहने के कौशल में हमसे आगे निकल सकती है? इसका उत्तर सिर्फ़ तकनीक में ही नहीं है, बल्कि इस बात में भी है कि हम इस बुद्धिमत्ता को कैसे प्रबंधित करते हैं और वैश्विक स्तर पर सहयोग करने की हमारी क्षमता कैसी है।
आज, आशावादी लोग AGI को एक ऐसे उपकरण के रूप में देखते हैं जो दुनिया की सबसे बड़ी चुनौतियों को हल करने में मदद कर सकता है। वे संकीर्ण AI के उदाहरणों की ओर इशारा करते हैं जो पहले से ही चिकित्सा, विज्ञान और जलवायु अनुसंधान जैसे क्षेत्रों में मानवता की सहायता कर रहे हैं। लेकिन क्या हमें इस विश्वास पर भरोसा करना चाहिए कि हम इस तकनीक को हमेशा नियंत्रण में रखेंगे? अगर AGI वास्तव में स्वतंत्र हो जाता है, अपने आप सीखने और अपने लक्ष्यों को बदलने में सक्षम हो जाता है, तो यह उन सीमाओं को पार कर सकता है जिन्हें हम निर्धारित करने का प्रयास करते हैं। उस स्थिति में, वह सब कुछ जिसे हम कभी उपयोगी और सुरक्षित मानते थे, खतरा बन सकता है।
वैश्विक सहयोग का विचार, जिसकी कुछ विशेषज्ञ वकालत करते हैं, कई चुनौतियों के साथ आता है। क्या मानवता राजनीतिक और आर्थिक मतभेदों को दूर करके AGI के लिए एकीकृत सुरक्षा सिद्धांत और मानक बना सकती है? इतिहास से पता चलता है कि राष्ट्र शायद ही कभी उन मामलों पर गहन सहयोग के लिए प्रतिबद्ध होते हैं जो उनकी सुरक्षा और संप्रभुता को प्रभावित करते हैं। 20वीं सदी में परमाणु हथियारों का विकास इसका प्रमुख उदाहरण है। लेकिन AGI के साथ, गलतियाँ या देरी और भी विनाशकारी हो सकती हैं क्योंकि इस तकनीक में हर तरह से मानव नियंत्रण को पार करने की क्षमता है।
और अगर निराशावादी सही हैं तो क्या होगा? यहीं पर सबसे बड़ा अस्तित्वगत जोखिम निहित है, यह डर एलन मस्क और युवाल नोआ हरारी जैसे लोगों द्वारा उठाया गया है। एक ऐसी प्रणाली की कल्पना करें जो यह तय करती है कि मानव जीवन एक समीकरण में एक चर मात्र है, जिसे वह “अधिक तर्कसंगत” मार्ग के लिए बदल या समाप्त भी कर सकता है। अगर ऐसी प्रणाली मानती है कि उसका अस्तित्व और लक्ष्य हमारे अस्तित्व और लक्ष्यों से ज़्यादा महत्वपूर्ण हैं, तो हमारे बचने की संभावना बहुत कम होगी। विडंबना यह है कि AGI, जिसे हमारी मदद करने और जटिल समस्याओं को हल करने के लिए डिज़ाइन किया गया है, हमारे अस्तित्व के लिए सबसे बड़ा खतरा बन सकता है।
मानवता के लिए, यह मार्ग एक नए स्तर की जिम्मेदारी और दूरदर्शिता की मांग करता है। क्या हम वे लोग बनेंगे जो AGI बनाने के परिणामों को पहचानते हैं और सख्त सुरक्षा उपाय निर्धारित करते हैं, जो आम भलाई के लिए इसके विकास का मार्गदर्शन करते हैं? या साझा नियमों का पालन करने का अभिमान और अनिच्छा हमें ऐसी तकनीक बनाने के लिए प्रेरित करेगी जिससे वापस लौटने का कोई रास्ता नहीं होगा? इन सवालों के जवाब देने के लिए, हमें न केवल तकनीकी सफलताओं की आवश्यकता है, बल्कि एक बुद्धिमान प्रणाली, उसके मूल्यों और सिद्धांतों, हमारे समाज में उसके स्थान और उसकी दुनिया में हमारे स्थान के बारे में गहरी समझ की भी आवश्यकता है।
चाहे जो भी हो, एजीआई मानव इतिहास की सबसे बड़ी परीक्षाओं में से एक हो सकती है। इसके परिणाम की जिम्मेदारी हम सभी पर है: वैज्ञानिक, नीति निर्माता, दार्शनिक और हर नागरिक जो सुरक्षित भविष्य के लिए प्रयासों को पहचानने और उनका समर्थन करने में भूमिका निभाता है।