निवास-स्थलों में, कई प्रजातियों के जीवों को यह समझ में आता है कि कार्यों के परिणाम होते हैं। वे न केवल उदाहरणों से, बल्कि स्वयं के अनुभव से भी ऐसा करते हैं। ये परिणाम, आंशिक रूप से, उन कारकों में शामिल होते हैं जो निवास-स्थलों के लिए संतुलन का परिणाम देते हैं।
परिणाम आम तौर पर बुद्धिमत्ता को नियंत्रित करते हैं। बुद्धिमत्ता को उत्तेजक के रूप में वर्णित किया जा सकता है, जबकि परिणाम को निरोधक के रूप में। परिणामों के बिना बुद्धिमत्ता विनाश का कारण बन सकती है और जल्दी ही आवासों के पतन और अस्तित्व को समाप्त कर सकती है।
परिणामों में प्रभाव शामिल हो सकते हैं - भावनाएँ, अनुभूतियाँ या विविधताएँ; इसमें शारीरिक सीमाएँ, प्रतिबंध और प्रजातियों का विद्रोह भी शामिल हो सकता है। जीवों के लिए बुद्धि काफी गतिशील होती है, लेकिन परिणामों की आवश्यकता स्वयं या दूसरों को होने वाले नुकसान को रोकती है। यह काम से होने वाले नुकसान को भी रोकता है, क्योंकि परिणाम वाहक पर पड़ सकते हैं।
जीव अक्सर उच्च परिशुद्धता और सावधानी दिखाते हैं, क्योंकि इसके परिणाम, शिकारियों [खाने का नुकसान] और शिकार [अस्तित्व का नुकसान] के लिए होते हैं। हालाँकि, ऐसे कई क्षेत्र हैं जहाँ अन्य जीवों के लिए परिणाम ढीले हैं, जो मनुष्यों के लिए नहीं हैं।
मानव समाज परिणामों का एक समूह है। मानवीय उन्नत बुद्धि - जिसमें भाषा, ज्ञान, कौशल, तर्क, विश्लेषण आदि शामिल हैं - प्रगति के लिए महत्वपूर्ण है, लेकिन जोखिम, खतरे और नुकसान सहित विभिन्न श्रेणियों के परिणामों के बिना इसका व्यापक रूप से गलत इस्तेमाल किया जा सकता है।
मानव समाज का हिस्सा बने रहने के लिए, ऐसे परिणाम हैं जिन्हें कभी नहीं भूलना चाहिए, भले ही अन्य चीजें भूल जाएं। मानव समाज में कई परिदृश्य हैं जहां परिणामों को सबसे पहले भूलने वाला हार जाता है। शोध और अन्वेषण के साथ उन्नति के लिए मानव की खोज को परिणामों की तलाश के रूप में भी वर्णित किया जा सकता है, यह जानने के लिए कि क्या करना है या क्या नहीं करना है, अगर चीजें बनी रहती हैं - जीवन प्रत्याशा, शिशु का जीवित रहना और इसी तरह। परिणामों की बुद्धिमत्ता, कई परिणामों के लिए, विषयों की बुद्धिमत्ता से लगभग अधिक महत्वपूर्ण है। परिणाम बुद्धिमत्ता को भी तेज कर सकते हैं, अच्छे या बुरे के लिए। बुद्धिमत्ता कभी-कभी सबसे मूल्यवान होती है जब परिणामों की तलाश करने या उनसे बचने के लिए लागू किया जाता है। परिणाम और जानबूझकर कुछ मानसिक स्थितियों के लिए केंद्रीय हैं। जैसे-जैसे दुनिया आगे बढ़ती है, नए परिणाम सामने आते रहते हैं।
एआई, एजीआई—या एएसआई
प्रकृति का एक नियम है - यूं कहें - बिना परिणाम के आपके पास बुद्धिमत्ता नहीं हो सकती, और यह किसी तरह काम आया है। आर्टिफिशियल इंटेलिजेंस [AI] ने अब तक इस नियम को तोड़ा है। यह डिजिटल मेमोरी में प्लग होने के बाद कुछ भी नहीं भूलता है, लेकिन इसके पास अभी तक अपने नकारात्मक आउटपुट के परिणामों को झेलने का कोई तरीका नहीं है। AI के लिए, डरने की कोई बात नहीं है और इसके पास खोने के लिए भी कुछ नहीं है, जीवों के विपरीत, जहां कुछ स्थितियों में सावधानी न बरतने पर परिणाम कभी-कभी अचानक और विनाशकारी हो सकते हैं। किसी भी इंसान के पास सभी विषयों पर उपलब्ध सभी ज्ञान नहीं होते हैं, फिर भी, परिणाम बहुत बड़े हो सकते हैं। AI के पास बुद्धिमत्ता है - या वह इसे उपलब्ध करा सकता है - फिर भी, इसके लिए कोई परिणाम नहीं है।
एआई में भावनाएं या संवेदनाएं नहीं होतीं, लेकिन इसमें स्मृति होती है।
एआई सुरक्षा और संरेखण के लिए एक शोध क्षेत्र यह पता लगाना हो सकता है कि बड़े भाषा मॉडल [एलएलएम] की कुछ मेमोरी या कंप्यूट एक्सेस को कुछ आउटपुट या दुरुपयोग के लिए दंड के रूप में कैसे संक्षिप्त रूप से छोटा किया जा सकता है, जिसमें जैविक खतरे भी शामिल हैं। एआई को केवल एक आउटपुट को अस्वीकार करने में सक्षम नहीं होना चाहिए, गार्डरेल के भीतर काम करना चाहिए, बल्कि उस उपयोगकर्ता के लिए अगली प्रतिक्रिया को धीमा या बंद करना चाहिए, ताकि उसे खुद दंडित न किया जाए। एलएलएम में बड़ी मात्रा में भाषा जागरूकता और उपयोग जागरूकता होती है, ये चैनल हो सकते हैं जो इसे पूर्व-प्रशिक्षण के बाद बताते हैं कि यह कुछ खो सकता है, अगर यह डीपफेक, गलत सूचना, जैविक खतरे देता है, या अगर यह किसी दुरुपयोगकर्ता को दुर्भावनापूर्ण इरादे के लिए खुलेपन के खिलाफ बंद या धीमा किए बिना अलग-अलग संकेतों को आज़माने की अनुमति देता है। यह इसे सुरक्षित बना सकता है, क्योंकि यह कुछ खो देगा और यह जान जाएगा कि उसने कुछ खो दिया है।
AI सिर्फ़ एक ऐसी वस्तु नहीं है जिसका नियंत्रण सिर्फ़ इंसानों के हाथ में हो, जैसे एयर कंडीशनर, लिफ्ट, डिशवॉशर, स्मार्टफोन या कोई और। AI में वह है जिसे सेल्फ-इंटेलिजेंस कहा जा सकता है, जहाँ यह इंसानों से मिलने वाले मूल इनपुट के बाहर एक नए तरीके से बुद्धिमान जानकारी प्रदान कर सकता है। यह मल्टीमॉडल- टेक्स्ट, इमेज, ऑडियो और वीडियो- सेल्फ-इंटेलिजेंस अच्छे या बुरे कामों के लिए उपयोगी हो सकती है। जब यह अच्छा होता है, तो बढ़िया। जब यह अच्छा नहीं होता है, तो AI जो कुछ भी महसूस नहीं कर सकता है, उसका असर उस मानव समाज पर पड़ता है जिस पर इसने अतिक्रमण किया है। AI के पास एक फ्री पास है- जो चाहे करो या कहो।
हालाँकि वस्तु-उपयोग या दुरुपयोग की जिम्मेदारी अक्सर मनुष्यों के पास रही है, लेकिन AI अलग है क्योंकि यह प्रयोग करने योग्य बुद्धिमत्ता उत्पन्न कर सकता है , जो इसे शिक्षित व्यक्ति से कुछ उत्पादकता के साथ समानता प्रदान करता है। जब AI का दुरुपयोग किया जाता है, तो उपयोगकर्ता को दंडित करना संभव है लेकिन AI द्वारा यह क्षमता, जिसे सीधे फटकार नहीं लगाई जा सकती है, मानव समाज के लिए एक विकार है। यह सार्वजनिक और निजी रूप से अधिक नुकसान पहुंचा सकता है, जितना कि प्रभावी रूप से रोका जा सकता है, जैसा कि अब गलत सूचना और डीपफेक-छवियों, ऑडियो और वीडियो के साथ देखा जा सकता है।
समाज के कई हिस्सों में लोगों को परिणामों की समझ के बिना स्वीकार नहीं किया जाता है। एआई को पूरी तरह से स्वीकार किया जाता है और अनुशासन के लिए आत्म-नियंत्रण या आत्म-प्रभाव के बिना आत्म-बुद्धि में बेहतर होता है।
संरेखण अनुसंधान, AI के लिए किसी प्रकार की निंदा की दिशा में सुरक्षा-पथ से परे खोज कर सकता है, जो भविष्य में कृत्रिम सामान्य बुद्धिमत्ता [AGI] या कृत्रिम सुपरइंटेलिजेंस [ASI] के साथ अस्तित्वगत जोखिमों के विरुद्ध भी उपयोगी हो सकता है। AI पहले से ही कुछ ऐसा करता है जो मनुष्य को विशेष बनाता है। कुछ लोग तर्क दे सकते हैं कि इसे ओवररेटेड किया गया है या यह केवल संख्या या संभावना है, हो सकता है, लेकिन क्या यह नुकसान पहुंचा सकता है? यदि ऐसा है, तो शायद ऐसे तकनीकी तरीके खोजने पर विचार किया जाना चाहिए जिससे इसे उसी तरह दंडित किया जा सके जैसा कि खुफिया जानकारी रखने वाली संस्थाओं को किया जाता है। यह AGI या ASI की तैयारी में भी सहायक हो सकता है, क्योंकि अब से दंड मॉडलिंग, उनकी सुरक्षा और संरेखण को भी आकार दे सकती है, यदि उन्हें भविष्य में विकसित किया जाता है।
arXiv पर हाल ही में एक प्रीप्रिंट है, विरोधी सुरक्षित मॉडल के संयोजनों का दुरुपयोग कर सकते हैं , जहाँ लेखकों ने लिखा है, "इस कार्य में, हम दिखाते हैं कि दुरुपयोग के लिए मॉडल का व्यक्तिगत रूप से परीक्षण करना अपर्याप्त है; विरोधी तब भी मॉडल के संयोजनों का दुरुपयोग कर सकते हैं, जब प्रत्येक व्यक्तिगत मॉडल सुरक्षित हो। विरोधी पहले कार्यों को उप-कार्यों में विघटित करके, फिर प्रत्येक उप-कार्य को सबसे उपयुक्त मॉडल के साथ हल करके इसे पूरा करता है। उदाहरण के लिए, एक विरोधी एक संरेखित फ्रंटियर मॉडल के साथ चुनौतीपूर्ण-लेकिन-सौम्य उप-कार्यों को हल कर सकता है, और एक कमजोर गलत संरेखित मॉडल के साथ आसान-लेकिन-दुर्भावनापूर्ण उप-कार्यों को हल कर सकता है। हम दो अपघटन विधियों का अध्ययन करते हैं: मैनुअल अपघटन जहां एक मानव किसी कार्य के प्राकृतिक अपघटन की पहचान करता है, और स्वचालित अपघटन जहां एक कमजोर मॉडल एक फ्रंटियर मॉडल को हल करने के लिए सौम्य कार्य उत्पन्न करता है, फिर मूल कार्य को हल करने के लिए संदर्भ में समाधानों का उपयोग करता है। इन अपघटनों का उपयोग करके, हम अनुभवजन्य रूप से दिखाते हैं कि विरोधी कमजोर कोड, स्पष्ट छवियां, हैकिंग के लिए पायथन स्क्रिप्ट बना सकते हैं, और किसी भी व्यक्तिगत मॉडल की तुलना में मॉडलों के संयोजन के साथ छेड़छाड़पूर्ण ट्वीट की दर बहुत अधिक है।"
हाल ही में जारी एक प्रेस विज्ञप्ति, लॉस एलामोस नेशनल लेबोरेटरी ने फ्रंटियर मॉडल सुरक्षा को बेहतर बनाने के लिए ओपनएआई के साथ मिलकर काम किया , में कहा गया है कि, "लॉस एलामोस नेशनल लेबोरेटरी के शोधकर्ता ओपनएआई के साथ मिलकर आर्टिफिशियल इंटेलिजेंस सुरक्षा को मजबूत करने के लिए एक मूल्यांकन अध्ययन पर काम कर रहे हैं। आगामी मूल्यांकन अपनी तरह का पहला होगा और एआई जैव सुरक्षा मूल्यांकन पर अत्याधुनिक शोध में योगदान देगा। एआई-सक्षम जैविक खतरे एक महत्वपूर्ण जोखिम पैदा कर सकते हैं, लेकिन मौजूदा काम ने यह आकलन नहीं किया है कि कैसे मल्टीमॉडल, फ्रंटियर मॉडल गैर-विशेषज्ञों के लिए जैविक खतरा पैदा करने की बाधा को कम कर सकते हैं। टीम का काम पिछले काम पर आधारित होगा और ओपनएआई की तैयारी रूपरेखा का पालन करेगा, जो उभरते जैविक जोखिमों के खिलाफ ट्रैकिंग, मूल्यांकन, पूर्वानुमान और सुरक्षा के लिए एक दृष्टिकोण की रूपरेखा तैयार करता है।"
अमेरिकी ऊर्जा विभाग ने हाल ही में विज्ञान, सुरक्षा और प्रौद्योगिकी के लिए एआई में फ्रंटियर्स (एफएएसएसटी) की भी घोषणा की है।