paint-brush
2000 से अधिक शोधकर्ताओं ने AI के भविष्य की भविष्यवाणी कीद्वारा@adrien-book
736 रीडिंग
736 रीडिंग

2000 से अधिक शोधकर्ताओं ने AI के भविष्य की भविष्यवाणी की

द्वारा Adrien Book4m2024/04/17
Read on Terminal Reader

बहुत लंबा; पढ़ने के लिए

विश्वविद्यालयों के सहयोग से AI इम्पैक्ट्स द्वारा हाल ही में किए गए सर्वेक्षण में AI के भविष्य के मील के पत्थर और संभावित जोखिमों पर विशेषज्ञों की भविष्यवाणियों पर प्रकाश डाला गया है। विशेषज्ञों ने 2028 तक AI में महत्वपूर्ण प्रगति की भविष्यवाणी की है, लेकिन AI की व्याख्या, सामाजिक प्रभावों और अस्तित्वगत जोखिमों के बारे में चिंता व्यक्त की है। बेहतर भविष्य के लिए AI के अवसरों और चुनौतियों से निपटने के लिए AI सुरक्षा अनुसंधान, वैश्विक विनियमन और जिम्मेदार AI विकास पर जोर दिया गया है।
featured image - 2000 से अधिक शोधकर्ताओं ने AI के भविष्य की भविष्यवाणी की
Adrien Book HackerNoon profile picture
0-item
1-item


आर्टिफिशियल इंटेलिजेंस के विकास की गति स्वाभाविक चरमोत्कर्ष पर पहुँच गई है। GPT-4 , जेमिनी , क्लाउड आदि जैसे उपकरण और उनके निर्माता जल्द ही स्वास्थ्य सेवा और शिक्षा से लेकर वित्त और मनोरंजन तक समाज के हर पहलू को बदलने में सक्षम होने का दावा करते हैं। यह तेज़ विकास AI के प्रक्षेप पथ के बारे में और भी महत्वपूर्ण प्रश्न उठाता है: हाँ, तकनीक के लाभ, लेकिन साथ ही ( अधिकांशतः! ) हम सभी के लिए इसके संभावित जोखिम भी।


इन परिस्थितियों में, विशेषज्ञों के दृष्टिकोण को सुनना, समझना और उन पर ध्यान देना महत्वपूर्ण हो जाता है। हाल ही में " AI के भविष्य पर हजारों AI लेखक " शीर्षक से एक सर्वेक्षण AI की क्षमता पर ऐसे विशेषज्ञों की राय जानने के लिए सबसे व्यापक प्रयास का प्रतिनिधित्व करता है। बॉन विश्वविद्यालय और ऑक्सफ़ोर्ड विश्वविद्यालय के शोधकर्ताओं के सहयोग से AI इम्पैक्ट्स में कटजा ग्रेस और उनकी टीम द्वारा किए गए इस अध्ययन में 2,778 शोधकर्ताओं का सर्वेक्षण किया गया, जिसमें AI की प्रगति और इसके सामाजिक प्रभावों पर उनकी भविष्यवाणियाँ मांगी गईं। संपर्क किए गए सभी लोगों ने पहले शीर्ष-स्तरीय AI स्थानों में सहकर्मी-समीक्षित पेपर लिखे थे।


एआई के भविष्य के अध्ययन से मुख्य निष्कर्ष

संक्षेप में, सर्वेक्षण प्रौद्योगिकी के भविष्य और इसके सामाजिक प्रभावों के संबंध में एआई शोधकर्ताओं के बीच अपेक्षाओं और चिंताओं की जटिलता और व्यापकता पर प्रकाश डालता है।


  • विशेषज्ञों का अनुमान है कि एआई 2028 की शुरुआत में महत्वपूर्ण मील के पत्थर हासिल कर लेगा: " जैसे कि एक संपूर्ण भुगतान प्रसंस्करण साइट को स्क्रैच से कोड करना और टेलर स्विफ्ट जैसे हिट कलाकारों द्वारा वास्तविक गीतों से अलग न पहचाने जाने वाले नए गाने लिखना "।


  • प्रतिभागियों का एक महत्वपूर्ण बहुमत यह भी मानता है कि सर्वश्रेष्ठ AI सिस्टम अगले दो दशकों में बहुत उल्लेखनीय क्षमताएँ हासिल कर लेंगे। इसमें " लक्ष्यों को प्राप्त करने के अप्रत्याशित तरीके " (82.3%), " अधिकांश विषयों पर मानव विशेषज्ञ की तरह बात करना" (81.4%), और अक्सर " मनुष्यों को आश्चर्यचकित करने वाले तरीके " (69.1%) व्यवहार करना शामिल है।


  • इसके अलावा, आम सहमति यह बताती है कि 2047 तक सभी कार्यों में एआई द्वारा मनुष्यों से " बेहतर प्रदर्शन " करने की 50% संभावना है, एक अनुमान जो एक साल पहले किए गए पूर्वानुमानों की तुलना में 13 साल आगे बढ़ गया है


  • सभी मानव व्यवसायों के " पूरी तरह से स्वचालित " होने की संभावना अब 2037 तक 10% और 2116 तक 50% तक पहुंचने का अनुमान है ( 2022 के सर्वेक्षण में 2164 की तुलना में)।


AI निम्नलिखित कार्य कब करने में सक्षम होगा?


  • सर्वेक्षण में एआई निर्णयों की व्याख्या के बारे में संदेह व्यक्त किया गया है, जिसमें केवल 20% उत्तरदाताओं ने माना कि यह संभावना है कि उपयोगकर्ता 2028 तक " एआई सिस्टम के विकल्पों के पीछे के वास्तविक कारणों को समझ पाएंगे"। एआई (बदनाम रूप से) एक ब्लैक बॉक्स है, और यह चिंता एआई पारदर्शिता में वास्तविक, चल रही चुनौतियों को दर्शाती है। यह विशेष रूप से महत्वपूर्ण अनुप्रयोगों (वित्त, स्वास्थ्य सेवा ...) में प्रासंगिक है, जहां एआई निर्णय लेने को समझना विश्वास और जवाबदेही के लिए महत्वपूर्ण है।


  • अध्ययन में एआई के संभावित नकारात्मक प्रभावों के बारे में " महत्वपूर्ण " चिंताओं को भी उजागर किया गया है। गलत जानकारी का प्रसार, जनमत में हेरफेर, और एआई का सत्तावादी उपयोग, आश्चर्यजनक रूप से, पर्याप्त चिंता पैदा करता है। इन खतरों को कम करने के लिए सक्रिय उपायों की मांग आज बहुत कम है, और यह एक समस्या है


संभावित परिदृश्यों के लिए चिंता की मात्रा, सबसे अधिक से लेकर सबसे कम चिंता तक व्यवस्थित


  • उच्च-स्तरीय मशीन इंटेलिजेंस के दीर्घकालिक प्रभावों पर अलग-अलग तरह की राय है, जिसमें उत्तरदाताओं का एक उल्लेखनीय हिस्सा गैर-शून्य संभावनाओं को मानव विलुप्ति सहित बेहद अच्छे और बेहद बुरे दोनों परिणामों के लिए जिम्मेदार ठहराता है। यह वैज्ञानिक का मतलब है कि " हम नहीं जानते कि आगे क्या होने वाला है "। लेकिन... 38% से 51% उत्तरदाताओं ने उन्नत AI के मानव विलुप्ति जैसे बुरे परिणामों की ओर ले जाने की कम से कम 10% संभावना दी , जो ऐसा लगता है कि हमें इस पर नज़र रखनी चाहिए।


  • अंत में, इस बात पर असहमति है कि मानवता के भविष्य के लिए AI की तेज़ या धीमी प्रगति बेहतर होगी। हालाँकि, अधिकांश उत्तरदाताओं ने AI सुरक्षा अनुसंधान को वर्तमान की तुलना में अधिक प्राथमिकता देने की वकालत की, जो AI के अस्तित्व संबंधी जोखिमों को संबोधित करने और इसके सुरक्षित विकास और परिनियोजन को सुनिश्चित करने के महत्व पर बढ़ती आम सहमति को दर्शाता है।


हम उस जानकारी का क्या करते हैं?

आगे का रास्ता बिल्कुल स्पष्ट है: दुनिया भर में सरकारों को एआई सुरक्षा अनुसंधान के लिए वित्त पोषण बढ़ाने की जरूरत है और यह सुनिश्चित करने के लिए मजबूत तंत्र विकसित करने की जरूरत है कि एआई प्रणालियां वर्तमान और भविष्य के मानवीय मूल्यों और हितों के साथ संरेखित हों।


यूके सरकार ने हाल ही में आर्टिफिशियल इंटेलिजेंस से जुड़ी कई परियोजनाओं के लिए £50M+ की फंडिंग की घोषणा की है , जिसमें एक नए जिम्मेदार AI इकोसिस्टम के निर्माण के लिए £30 मिलियन शामिल हैं। इसका उद्देश्य ऐसे उपकरण और कार्यक्रम बनाना है जो AI क्षमताओं के जिम्मेदार और भरोसेमंद अनुप्रयोगों को सुनिश्चित करें।


इस बीच, बिडेन-हैरिस प्रशासन ने 2024 की शुरुआत में यूएस एआई सेफ्टी इंस्टीट्यूट कंसोर्टियम (एआईएसआईसी) के गठन की घोषणा की, जिसमें उद्योग जगत के नेताओं, शिक्षाविदों और नागरिक समाज सहित 200 से अधिक एआई हितधारकों को एक साथ लाया गया। इस संघ का उद्देश्य रेड-टीमिंग, क्षमता मूल्यांकन, जोखिम प्रबंधन और अन्य महत्वपूर्ण सुरक्षा उपायों के लिए दिशानिर्देश विकसित करके सुरक्षित और भरोसेमंद एआई के विकास और तैनाती का समर्थन करना है।


यह एक शुरुआत है, लेकिन यह पूरी तरह से राष्ट्रीय है।


आज सरकारें सिर्फ़ अपने पिछवाड़े को नहीं देख सकतीं। हमें AI तकनीकों के नैतिक विकास और तैनाती का मार्गदर्शन करने के लिए अंतर्राष्ट्रीय नियमों को लागू करने की भी ज़रूरत है, जिससे पारदर्शिता और जवाबदेही सुनिश्चित हो सके। इसमें AI शोधकर्ताओं, नैतिकतावादियों और नीति निर्माताओं के बीच अंतःविषय और अंतर्राष्ट्रीय सहयोग को बढ़ावा देना शामिल है। मैं दुनिया में तब सुरक्षित महसूस करूँगा जब मैं मौजूदा मानवाधिकार ढाँचों को मज़बूत और बेहतर बनाने के लिए निम्नलिखित को लागू होते देखूँगा:


  • वैश्विक एआई सुरक्षा ढांचे
  • अंतर्राष्ट्रीय एआई सुरक्षा शिखर सम्मेलन
  • वैश्विक एआई नैतिकता और सुरक्षा अनुसंधान निधि।


निष्कर्ष निकालना अभी जल्दबाजी होगी

शायद यह डूमरिज्म का शिकार होने के लिए थोड़ा जल्दी है। जबकि सर्वेक्षण मूल्यवान अंतर्दृष्टि प्रदान करता है, इसमें सीमाएँ हैं, जिसमें प्रतिभागियों के बीच स्व-चयन से संभावित पूर्वाग्रह और तकनीकी प्रगति का सटीक पूर्वानुमान लगाने की ( स्पष्ट! ) चुनौती शामिल है। आगे के शोध का उद्देश्य दृष्टिकोणों की विविधता का विस्तार करना और विशिष्ट क्षेत्रों में एआई विकास के निहितार्थों का पता लगाना होना चाहिए।


अंत में, और की गई भविष्यवाणियों की सटीकता की परवाह किए बिना, हमें शब्दों से ज़्यादा की ज़रूरत है। AI अभूतपूर्व अवसरों और महत्वपूर्ण चुनौतियों दोनों का स्रोत है। शोधकर्ताओं, नीति निर्माताओं और जनता के बीच खुले संवाद के माध्यम से, हमें AI के खतरे से खुद को बचाने के लिए नियम बनाने चाहिए , और सभी के लिए बेहतर भविष्य की ओर बढ़ना चाहिए।


दुनिया बहुत बड़ी है और हम बहुत छोटे हैं। शुभकामनाएँ।