आपको केवल 'ध्यान' की आवश्यकता नहीं थी।
हां और ना।
मूलभूत समस्या यह है कि हम मानव मस्तिष्क के उस रहस्य के बारे में ज्यादा कुछ नहीं जान पाए हैं।
फिर भी ट्रांसफॉर्मर और मनुष्य प्राकृतिक भाषा के समान समान प्रतिक्रियाएँ साझा करते हैं।
आइए बताते हैं क्यों।
हम ट्रांसफॉर्मर के लिए एम्बेडिंग बनाने के लिए कई शब्दों या टोकन के इनपुट से उत्पन्न वेक्टर का उपयोग करते हैं।
इसलिए सूचना - एक सदिश के रूप में संग्रहीत होती है।
आइए प्रतिनिधित्व पर विचार करें। इस प्रतिनिधित्वात्मक एम्बेडिंग ने ध्यान देने की तुलना में कहीं अधिक मौलिक भूमिका निभाई। डिकोडेबल या व्यावहारिक रूप में प्रतिनिधित्व पहले पहुंचना था!
आप सोच रहे होंगे, यह किसी भी तरह से GPT-4 जैसे ट्रांसफॉर्मर द्वारा पूरे इंटरनेट पर प्रशिक्षित किए जाने से कैसे संबंधित है?
जानकारी को ध्यान डॉट उत्पादों और गणितीय प्रसंस्करण द्वारा एन्कोड किया गया है जो मूल डेटा के प्रासंगिक अर्थ और प्रतिनिधित्व के साथ संयुक्त है।
तो हमारे पास ट्रांसफॉर्मर में संग्रहीत इस डेटा का प्रतिनिधित्व है।
सभी तंत्रिका नेटवर्क सार्वभौमिक सन्निकटन प्रमेय के अनुसार समस्याओं का समाधान करते हैं।
आप में से जो नहीं जानते हैं कि यूनिवर्सल सन्निकटन क्या है, हम एक यूनिवर्सल सन्निकटन को किसी भी प्रक्रिया के रूप में परिभाषित कर सकते हैं जो एक निर्दिष्ट इनपुट को उच्च सटीकता के साथ निर्दिष्ट आउटपुट में परिवर्तित करती है - यह इनपुट के सेट और आउटपुट के सेट के बीच एक फ़ंक्शन का अनुमान लगाती है। . उस समारोह का एक रूप है। लेकिन हमें फॉर्म जानने की जरूरत नहीं है क्योंकि पर्याप्त डेटा दिया गया है, न्यूरल नेटवर्क हमारे लिए किसी भी फ़ंक्शन का अनुमान लगा सकता है।
समारोह क्या है? यह वह समस्या है जिसे हम हल करने का प्रयास कर रहे हैं।
तंत्रिका नेटवर्क अपने प्रसंस्करण एल्गोरिथ्म के माध्यम से किसी भी कार्य को अनुमानित कर सकता है। कोई भी कार्य - इतना सार्वभौमिक।
आर्किटेक्चर भिन्न होते हैं - एल्गोरिदम भिन्न होते हैं - मॉडल भिन्न होते हैं - लेकिन अंतर्निहित सिद्धांत समान होता है।
और यही कारण है कि तंत्रिका नेटवर्क तब काम करते हैं जब उनके पास पर्याप्त डेटा होता है, उन्हें एक उपयुक्त कार्य दिया जाता है, और उन्हें सही तरीके से समायोजित किया जाता है, एक कला जो आप समय के साथ बेहतर होते जाते हैं।
इस एलएलएम में कुत्ते का अंतर्निहित प्रतिनिधित्व क्या है?
निश्चय ही एक है और वास्तव में अनेक हैं।
कच्चे डेटा प्रवाह आर्किटेक्चर के सही मार्ग के साथ-साथ शायद एक्स वैक्टर, वाई प्रासंगिक मूल्य, और एक कुत्ते के लिए जेड स्थितीय तर्क।
हम अभी इसकी गहराई में नहीं गए हैं क्योंकि यह हमारे उद्देश्यों के लिए अनावश्यक है।
सिस्टम काम करता है।
हमारे लिए इतना ही काफी है।
सिस्टम, इस प्रकार, एक ब्लैक बॉक्स है।
पहले की तरह - हम सटीक विवरण नहीं जानते हैं।
जब हमारे दिमाग का निर्माण होता है तो वे बाहरी वस्तुओं, अवधारणाओं और संस्थाओं का आंतरिक प्रतिनिधित्व करते हैं। जैसे कोई बच्चा बड़ा हो रहा हो।
उदाहरण के लिए, एक कुत्ते की अवधारणा में x न्यूरॉन्स, y सिनैप्स और z आर्किटेक्चर शामिल हो सकते हैं, साथ ही न्यूरॉन्स के बीच कच्चे डेटा ट्रांसफर पाथवे का एक गतिशील निरंतर विकसित सेट हो सकता है।
मेरा कथन है कि मानव मस्तिष्क भी एक ब्लैक बॉक्स है। और वही सिद्धांत जो GPT मॉडल पर लागू होते हैं, उन्हें मस्तिष्क पर भी लागू करने के लिए कहा जा सकता है - वे यूनिवर्सल सन्निकटनकर्ता भी हैं।
सन्निकटन प्रमेय स्पष्ट रूप से हमारे दिमाग पर लागू होता है।
वही सिद्धांत काम कर रहे हैं।
हमारे मस्तिष्क में विचारों को एम्बेडिंग द्वारा भी संग्रहीत/प्रतिनिधित्व किया जाता है!
यह सिर्फ इतना है कि ये एम्बेडिंग स्वाभाविक रूप से बनाई गई हैं।
अल्ट्रा-लो विद्युत ऊर्जा वाले न्यूरॉन्स, अक्षतंतु और डेन्ड्राइट के परिवार।
अलग - अलग रूप। विभिन्न कार्य। लेकिन वही अंतिम परिणाम।
सिस्टम काम करता है।
हमारे लिए इतना ही काफी है।
हम और क्या कह सकते हैं हम जानते हैं?
केवल वही जो हम अनुभवजन्य रूप से देख सकते हैं।
फिर से एक ब्लैक बॉक्स।
हमने एजीआई को इंटरनेट पर डिजिटल रूप में एकत्र किए गए सभी डेटा की एक बहुत ही जटिल प्रसंस्करण प्रक्रिया के साथ सबसे अच्छा मॉडल बनाने की कोशिश की है। दुनिया में सभी डेटा।
जहां तक अनुक्रम-अनुक्रम मॉडल और प्राकृतिक भाषा कार्यों का संबंध है, मैं कहूंगा कि हम सफल हुए हैं।
हमने मॉडलिंग की है कि कैसे हमारे दिमाग अविश्वसनीय रूप से महंगी और व्यवस्थित कड़ी मेहनत के माध्यम से जानकारी को समझने और संसाधित करने में काम करते हैं।
मै खुश नही हूँ।
मैं वास्तव में डरा हुआ हूं।
यदि चैटजीपीटी यही कर सकता है -
Microsoft के सॉफ्टवेयर इंजीनियरों ने पहले ही GPT-4 मॉडल में भावना के कई क्षणों की पहचान कर ली है।
उन्होंने इस खोज पर एक पेपर भी जारी किया है -
समाचार पृष्ठ:
शोध पत्र:
हम यहां गहरा जोखिम उठा रहे हैं।
जब जेफ्री हिंटन ने अपने शोध पद से इस्तीफा दे दिया, तो मुझे एहसास हुआ कि चीजें वास्तव में खराब हो रही थीं।
पैसा सब कुछ ईंधन देता है।
कोई भी नियंत्रण चीन और अमरीका में लाभ-केंद्रित कंपनियों को नहीं रोक पाएगा।
हमें आशा है कि भविष्य अच्छा होगा।
एआई निर्णयकर्ताओं को नैतिकता को लाभ से ऊपर रखना चाहिए।
लेकिन उद्यमियों ने कभी ऐसा कब किया है?
हिंटन ने कुछ अविश्वसनीय कहा।
“मैंने अचानक अपने विचारों को बदल दिया है कि क्या ये चीजें हमसे ज्यादा बुद्धिमान होने वाली हैं। मुझे लगता है कि वे अभी इसके बहुत करीब हैं और भविष्य में वे हमसे कहीं अधिक बुद्धिमान होंगे। हम इससे कैसे बचे?”
लेकिन फिलहाल इस पर कोई रोक नहीं है।
चीजों को हवा देने के लिए, चलिए आपको ChatGPT के लिए एक दिलचस्प सवाल छोड़ते हैं।
मुझे:
आप एजीआई कैसे प्राप्त करेंगे?
चैटजीपीटी:
आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) हासिल करना एक बड़ी चुनौती है जिसके लिए कई वैज्ञानिक और इंजीनियरिंग विषयों में महत्वपूर्ण प्रगति की आवश्यकता है। जबकि एजीआई का सटीक मार्ग अभी भी बहस और अन्वेषण का विषय है, मैं आपको कुछ प्रमुख क्षेत्रों की अधिक विस्तृत व्याख्या प्रदान कर सकता हूं, जिनकी जांच शोधकर्ता कर रहे हैं:
संज्ञानात्मक वास्तुकला: एक संज्ञानात्मक वास्तुकला का विकास करना जो मानव बुद्धि की नकल कर सके, एजीआई का एक मूलभूत पहलू है। इसमें मानव मस्तिष्क की संरचना और कार्यों को समझना और कम्प्यूटेशनल मॉडल डिजाइन करना शामिल है जो इन प्रक्रियाओं को कैप्चर करता है। शोधकर्ता उच्च स्तरीय तर्क, धारणा, स्मृति, सीखने और निर्णय लेने का समर्थन करने वाले आर्किटेक्चर के निर्माण के लिए तंत्रिका विज्ञान, संज्ञानात्मक मनोविज्ञान और संज्ञानात्मक विज्ञान से प्रेरणा लेते हैं।
मशीन लर्निंग और डीप न्यूरल नेटवर्क्स: मशीन लर्निंग, विशेष रूप से डीप लर्निंग, ने हाल ही में एआई प्रगति में महत्वपूर्ण भूमिका निभाई है। गहरे तंत्रिका नेटवर्क ने छवि पहचान और प्राकृतिक भाषा प्रसंस्करण जैसे धारणा कार्यों में उल्लेखनीय सफलता हासिल की है। एजीआई की ओर बढ़ने के लिए, शोधकर्ता इसके सामान्यीकरण, व्याख्यात्मकता और सीमित डेटा और जटिल तर्क को संभालने की क्षमता में सुधार करके गहन शिक्षा की क्षमताओं को बढ़ाने के तरीके तलाश रहे हैं।
रीइन्फोर्समेंट लर्निंग एंड एक्टिव लर्निंग: रीइन्फोर्समेंट लर्निंग एजीआई के लिए फोकस का एक अन्य प्रमुख क्षेत्र है। इसमें प्रशिक्षण एजेंट शामिल हैं जो अपने पर्यावरण के साथ बातचीत करते हैं और परीक्षण और त्रुटि से सीखते हैं। सुदृढीकरण सीखने की तकनीक, सक्रिय सीखने के साथ संयुक्त, जिसमें सक्रिय रूप से सूचनात्मक प्रशिक्षण नमूनों का चयन करना शामिल है, एजेंटों को उनके पर्यावरण से अधिक कुशलता से पता लगाने और सीखने में मदद कर सकता है। एल्गोरिदम विकसित करना जो विविध डेटा स्रोतों से सीख सकते हैं और ज्ञान को नई स्थितियों में सामान्यीकृत कर सकते हैं, एजीआई प्राप्त करने के लिए महत्वपूर्ण है।
संज्ञानात्मक रोबोटिक्स और सन्निहित बुद्धिमत्ता: ट्रू एजीआई को केवल प्रसंस्करण सूचना से अधिक की आवश्यकता होगी; इसे भौतिक दुनिया के साथ बातचीत करने की आवश्यकता होगी। संज्ञानात्मक रोबोटिक्स का उद्देश्य रोबोटों में धारणा, अनुभूति और क्रिया को एकीकृत करना है ताकि वे मनुष्यों के समान दुनिया के बारे में सीखने और तर्क करने में सक्षम हो सकें। सन्निहित खुफिया अनुसंधान इस बात की पड़ताल करता है कि कैसे एजेंट अपने पर्यावरण के साथ बातचीत के माध्यम से बुद्धि विकसित कर सकते हैं, सेंसरिमोटर कौशल और शारीरिक अनुभवों का लाभ उठा सकते हैं।
प्रतीकात्मक तर्क और ज्ञान प्रतिनिधित्व: एजीआई सिस्टम को प्रतीकात्मक रूप से तर्क करने और जटिल ज्ञान प्रतिनिधित्व में हेरफेर करने में सक्षम होना चाहिए। प्रतीकात्मक तर्क में अमूर्त तर्क और समस्या को सुलझाने के कार्यों को करने के लिए तार्किक नियमों, अनुमान तंत्र और संरचित ज्ञान प्रतिनिधित्व का उपयोग करना शामिल है। सांख्यिकीय दृष्टिकोणों के साथ सांकेतिक तर्क का संयोजन, जैसे तंत्रिका नेटवर्क, अधिक शक्तिशाली और लचीली तर्क क्षमताओं को सक्षम करने के लिए अनुसंधान का एक सक्रिय क्षेत्र है।
ट्रांसफर लर्निंग और मेटा-लर्निंग: एजीआई सिस्टम में एक डोमेन में सीखे गए ज्ञान और कौशल को नए और अपरिचित डोमेन में स्थानांतरित करने की क्षमता होनी चाहिए। ट्रांसफर लर्निंग तकनीक का उद्देश्य संबंधित कार्यों या डोमेन में सीखने में तेजी लाने के लिए मौजूदा ज्ञान का लाभ उठाना है। मेटा-लर्निंग, या सीखने के लिए सीखना, ऐसे मॉडल विकसित करने पर ध्यान केंद्रित करता है जो सीख सकते हैं कि कुशलता से कैसे सीखें, सीमित डेटा के साथ नई स्थितियों और कार्यों को जल्दी से अपनाएं।
डेटा और कम्प्यूटेशनल संसाधन: एजीआई विकास के लिए प्रशिक्षण मॉडल के लिए बड़ी मात्रा में उच्च गुणवत्ता वाले डेटा की आवश्यकता होती है। मानव ज्ञान की चौड़ाई और गहराई को पकड़ने के लिए कई डोमेन में विविध डेटासेट तक पहुंच आवश्यक है। इसके अलावा, एजीआई विकास प्रशिक्षण और जटिल मॉडल चलाने के लिए पर्याप्त कम्प्यूटेशनल संसाधनों की मांग करता है। विशेष एआई चिप्स और वितरित कंप्यूटिंग सिस्टम जैसे हार्डवेयर में अग्रिम, एजीआई अनुसंधान में काफी तेजी ला सकते हैं।
नैतिकता, सुरक्षा और स्पष्टीकरण: जैसे-जैसे एजीआई आगे बढ़ता है, नैतिक चिंताओं को दूर करना, मजबूत सुरक्षा उपाय विकसित करना और एजीआई सिस्टम की पारदर्शिता और व्याख्या सुनिश्चित करना महत्वपूर्ण है। शोधकर्ता जोखिमों को कम करने और मानव उपयोगकर्ताओं को उनके व्यवहार को समझने और भरोसा करने में सक्षम बनाने के लिए एआई सिस्टम को अधिक पारदर्शी, व्याख्यात्मक और जवाबदेह बनाने के तरीकों की खोज कर रहे हैं।
सहयोग और अंतःविषय अनुसंधान: AGI को प्राप्त करने के लिए AI, तंत्रिका विज्ञान, मनोविज्ञान, दर्शन और अन्य सहित विभिन्न क्षेत्रों के विशेषज्ञों के बीच सहयोग की आवश्यकता होती है। अंतःविषय अनुसंधान और ज्ञान साझा करने को प्रोत्साहित करने से एजीआई के विकास में नई अंतर्दृष्टि और नवीन दृष्टिकोण पैदा हो सकते हैं।
यह नोट करना महत्वपूर्ण है कि हालांकि इनमें से प्रत्येक क्षेत्र में प्रगति की जा रही है, एजीआई को प्राप्त करना एक खुली समस्या बनी हुई है जिसमें पूर्णता के लिए कोई स्पष्ट समयरेखा नहीं है। यह एक जटिल और दीर्घकालिक लक्ष्य है जिसके लिए निरंतर शोध, अन्वेषण और पुनरावृत्ति की आवश्यकता होती है।
इस लेख की मुख्य छवि हैकरनून के एआई इमेज जेनरेटर द्वारा प्रॉम्प्ट "ह्यूमनॉइड रोबोट" के माध्यम से तैयार की गई थी