आर्टिफिशियल इंटेलिजेंस के विकास की गति स्वाभाविक चरमोत्कर्ष पर पहुँच गई है। GPT-4 , जेमिनी , क्लाउड आदि जैसे उपकरण और उनके निर्माता जल्द ही स्वास्थ्य सेवा और शिक्षा से लेकर वित्त और मनोरंजन तक समाज के हर पहलू को बदलने में सक्षम होने का दावा करते हैं। यह तेज़ विकास AI के प्रक्षेप पथ के बारे में और भी महत्वपूर्ण प्रश्न उठाता है: हाँ, तकनीक के लाभ, लेकिन साथ ही ( अधिकांशतः! ) हम सभी के लिए इसके संभावित जोखिम भी।
इन परिस्थितियों में, विशेषज्ञों के दृष्टिकोण को सुनना, समझना और उन पर ध्यान देना महत्वपूर्ण हो जाता है। हाल ही में " AI के भविष्य पर हजारों AI लेखक " शीर्षक से एक सर्वेक्षण AI की क्षमता पर ऐसे विशेषज्ञों की राय जानने के लिए सबसे व्यापक प्रयास का प्रतिनिधित्व करता है। बॉन विश्वविद्यालय और ऑक्सफ़ोर्ड विश्वविद्यालय के शोधकर्ताओं के सहयोग से AI इम्पैक्ट्स में कटजा ग्रेस और उनकी टीम द्वारा किए गए इस अध्ययन में 2,778 शोधकर्ताओं का सर्वेक्षण किया गया, जिसमें AI की प्रगति और इसके सामाजिक प्रभावों पर उनकी भविष्यवाणियाँ मांगी गईं। संपर्क किए गए सभी लोगों ने पहले शीर्ष-स्तरीय AI स्थानों में सहकर्मी-समीक्षित पेपर लिखे थे।
संक्षेप में, सर्वेक्षण प्रौद्योगिकी के भविष्य और इसके सामाजिक प्रभावों के संबंध में एआई शोधकर्ताओं के बीच अपेक्षाओं और चिंताओं की जटिलता और व्यापकता पर प्रकाश डालता है।
विशेषज्ञों का अनुमान है कि एआई 2028 की शुरुआत में महत्वपूर्ण मील के पत्थर हासिल कर लेगा: " जैसे कि एक संपूर्ण भुगतान प्रसंस्करण साइट को स्क्रैच से कोड करना और टेलर स्विफ्ट जैसे हिट कलाकारों द्वारा वास्तविक गीतों से अलग न पहचाने जाने वाले नए गाने लिखना "।
प्रतिभागियों का एक महत्वपूर्ण बहुमत यह भी मानता है कि सर्वश्रेष्ठ AI सिस्टम अगले दो दशकों में बहुत उल्लेखनीय क्षमताएँ हासिल कर लेंगे। इसमें " लक्ष्यों को प्राप्त करने के अप्रत्याशित तरीके " (82.3%), " अधिकांश विषयों पर मानव विशेषज्ञ की तरह बात करना" (81.4%), और अक्सर " मनुष्यों को आश्चर्यचकित करने वाले तरीके " (69.1%) व्यवहार करना शामिल है।
इसके अलावा, आम सहमति यह बताती है कि 2047 तक सभी कार्यों में एआई द्वारा मनुष्यों से " बेहतर प्रदर्शन " करने की 50% संभावना है, एक अनुमान जो एक साल पहले किए गए पूर्वानुमानों की तुलना में 13 साल आगे बढ़ गया है ।
सभी मानव व्यवसायों के " पूरी तरह से स्वचालित " होने की संभावना अब 2037 तक 10% और 2116 तक 50% तक पहुंचने का अनुमान है ( 2022 के सर्वेक्षण में 2164 की तुलना में)।
सर्वेक्षण में एआई निर्णयों की व्याख्या के बारे में संदेह व्यक्त किया गया है, जिसमें केवल 20% उत्तरदाताओं ने माना कि यह संभावना है कि उपयोगकर्ता 2028 तक " एआई सिस्टम के विकल्पों के पीछे के वास्तविक कारणों को समझ पाएंगे"। एआई (बदनाम रूप से) एक ब्लैक बॉक्स है, और यह चिंता एआई पारदर्शिता में वास्तविक, चल रही चुनौतियों को दर्शाती है। यह विशेष रूप से महत्वपूर्ण अनुप्रयोगों (वित्त, स्वास्थ्य सेवा ...) में प्रासंगिक है, जहां एआई निर्णय लेने को समझना विश्वास और जवाबदेही के लिए महत्वपूर्ण है।
अध्ययन में एआई के संभावित नकारात्मक प्रभावों के बारे में " महत्वपूर्ण " चिंताओं को भी उजागर किया गया है। गलत जानकारी का प्रसार, जनमत में हेरफेर, और एआई का सत्तावादी उपयोग, आश्चर्यजनक रूप से, पर्याप्त चिंता पैदा करता है। इन खतरों को कम करने के लिए सक्रिय उपायों की मांग आज बहुत कम है, और यह एक समस्या है ।
उच्च-स्तरीय मशीन इंटेलिजेंस के दीर्घकालिक प्रभावों पर अलग-अलग तरह की राय है, जिसमें उत्तरदाताओं का एक उल्लेखनीय हिस्सा गैर-शून्य संभावनाओं को मानव विलुप्ति सहित बेहद अच्छे और बेहद बुरे दोनों परिणामों के लिए जिम्मेदार ठहराता है। यह वैज्ञानिक का मतलब है कि " हम नहीं जानते कि आगे क्या होने वाला है "। लेकिन... 38% से 51% उत्तरदाताओं ने उन्नत AI के मानव विलुप्ति जैसे बुरे परिणामों की ओर ले जाने की कम से कम 10% संभावना दी , जो ऐसा लगता है कि हमें इस पर नज़र रखनी चाहिए।
अंत में, इस बात पर असहमति है कि मानवता के भविष्य के लिए AI की तेज़ या धीमी प्रगति बेहतर होगी। हालाँकि, अधिकांश उत्तरदाताओं ने AI सुरक्षा अनुसंधान को वर्तमान की तुलना में अधिक प्राथमिकता देने की वकालत की, जो AI के अस्तित्व संबंधी जोखिमों को संबोधित करने और इसके सुरक्षित विकास और परिनियोजन को सुनिश्चित करने के महत्व पर बढ़ती आम सहमति को दर्शाता है।
आगे का रास्ता बिल्कुल स्पष्ट है: दुनिया भर में सरकारों को एआई सुरक्षा अनुसंधान के लिए वित्त पोषण बढ़ाने की जरूरत है और यह सुनिश्चित करने के लिए मजबूत तंत्र विकसित करने की जरूरत है कि एआई प्रणालियां वर्तमान और भविष्य के मानवीय मूल्यों और हितों के साथ संरेखित हों।
यूके सरकार ने हाल ही में आर्टिफिशियल इंटेलिजेंस से जुड़ी कई परियोजनाओं के लिए £50M+ की फंडिंग की घोषणा की है , जिसमें एक नए जिम्मेदार AI इकोसिस्टम के निर्माण के लिए £30 मिलियन शामिल हैं। इसका उद्देश्य ऐसे उपकरण और कार्यक्रम बनाना है जो AI क्षमताओं के जिम्मेदार और भरोसेमंद अनुप्रयोगों को सुनिश्चित करें।
इस बीच, बिडेन-हैरिस प्रशासन ने 2024 की शुरुआत में यूएस एआई सेफ्टी इंस्टीट्यूट कंसोर्टियम (एआईएसआईसी) के गठन की घोषणा की, जिसमें उद्योग जगत के नेताओं, शिक्षाविदों और नागरिक समाज सहित 200 से अधिक एआई हितधारकों को एक साथ लाया गया। इस संघ का उद्देश्य रेड-टीमिंग, क्षमता मूल्यांकन, जोखिम प्रबंधन और अन्य महत्वपूर्ण सुरक्षा उपायों के लिए दिशानिर्देश विकसित करके सुरक्षित और भरोसेमंद एआई के विकास और तैनाती का समर्थन करना है।
यह एक शुरुआत है, लेकिन यह पूरी तरह से राष्ट्रीय है।
आज सरकारें सिर्फ़ अपने पिछवाड़े को नहीं देख सकतीं। हमें AI तकनीकों के नैतिक विकास और तैनाती का मार्गदर्शन करने के लिए अंतर्राष्ट्रीय नियमों को लागू करने की भी ज़रूरत है, जिससे पारदर्शिता और जवाबदेही सुनिश्चित हो सके। इसमें AI शोधकर्ताओं, नैतिकतावादियों और नीति निर्माताओं के बीच अंतःविषय और अंतर्राष्ट्रीय सहयोग को बढ़ावा देना शामिल है। मैं दुनिया में तब सुरक्षित महसूस करूँगा जब मैं मौजूदा मानवाधिकार ढाँचों को मज़बूत और बेहतर बनाने के लिए निम्नलिखित को लागू होते देखूँगा:
शायद यह डूमरिज्म का शिकार होने के लिए थोड़ा जल्दी है। जबकि सर्वेक्षण मूल्यवान अंतर्दृष्टि प्रदान करता है, इसमें सीमाएँ हैं, जिसमें प्रतिभागियों के बीच स्व-चयन से संभावित पूर्वाग्रह और तकनीकी प्रगति का सटीक पूर्वानुमान लगाने की ( स्पष्ट! ) चुनौती शामिल है। आगे के शोध का उद्देश्य दृष्टिकोणों की विविधता का विस्तार करना और विशिष्ट क्षेत्रों में एआई विकास के निहितार्थों का पता लगाना होना चाहिए।
अंत में, और की गई भविष्यवाणियों की सटीकता की परवाह किए बिना, हमें शब्दों से ज़्यादा की ज़रूरत है। AI अभूतपूर्व अवसरों और महत्वपूर्ण चुनौतियों दोनों का स्रोत है। शोधकर्ताओं, नीति निर्माताओं और जनता के बीच खुले संवाद के माध्यम से, हमें AI के खतरे से खुद को बचाने के लिए नियम बनाने चाहिए , और सभी के लिए बेहतर भविष्य की ओर बढ़ना चाहिए।
दुनिया बहुत बड़ी है और हम बहुत छोटे हैं। शुभकामनाएँ।