ChatGPT की रिलीज़ और बड़े पैमाने पर अपनाने के बाद, एक तरह से कई लोगों ने इसकी विघटनकारी शक्ति को कम करने की कोशिश की है, यह तर्क है कि कृत्रिम बुद्धिमत्ता (AI) मॉडल में भावनाओं को संसाधित करने की क्षमता नहीं है।
यह स्वीकार करना काफी कठिन है कि चैटजीपीटी द्वारा निर्मित कुछ कविताओं या मिडजर्नी द्वारा बनाई गई छवियों में कलात्मक गहराई या रचनात्मक आत्मा की कमी होती है जब ऐसे काम पेशेवर कलाकारों को चकाचौंध करते हैं।
यदि हाल
जनरेटिव संवादी AI मॉडल को मानवीय भावनाओं को पहचानने, व्याख्या करने और उचित प्रतिक्रिया देने के लिए डिज़ाइन किया गया है।
ह्यूमन फीडबैक (आरएचएलएफ) से रीइन्फोर्समेंट लर्निंग का उपयोग एआई सिस्टम को नई या अलग-अलग स्थितियों के अनुकूल होने के लिए मानवीय अंतःक्रियाओं से सीखे गए व्यवहारों का उपयोग करके संदर्भ को संसाधित करने में मदद करता है।
मनुष्यों से प्रतिक्रिया स्वीकार करने की क्षमता और विभिन्न स्थितियों में उनकी प्रतिक्रियाओं में सुधार भावनात्मक रूप से बुद्धिमान व्यवहार को व्यक्त करता है।
एआई में भावनात्मक बुद्धिमत्ता लोकप्रिय हो रही है क्योंकि अधिक एआई सिस्टम मनुष्यों के साथ बातचीत करने के लिए डिज़ाइन किए गए हैं। एआई में भावनात्मक बुद्धिमत्ता को शामिल करने से डेवलपर्स को ऐसे सिस्टम बनाने में मदद मिलती है जो अधिक मानवीय होते हैं और मानवीय जरूरतों और भावनाओं को बेहतर ढंग से समझ सकते हैं और उनका जवाब दे सकते हैं।
कोको, एक ऑनलाइन भावनात्मक समर्थन चैट ऐप, का उपयोग किया गया
सफल परिणाम ने आगे प्रदर्शित किया कि एआई मॉडल मानवीय समकक्षों के अंतर को जानने के बिना भावनाओं को समझदारी से संसाधित कर सकते हैं।
जबकि नैतिक या गोपनीयता हैं
चैटजीपीटी की व्यापक स्वीकृति और महान सफलता पर सवार होकर, माइक्रोसॉफ्ट
बिंग चैट के रूप में भी जाना जाता है, चैटबॉट ओपनएआई के जेनेरेटिव संवादात्मक एआई मॉडल को माइक्रोसॉफ्ट के मालिकाना मॉडल के साथ एकीकृत करता है ताकि "क्षमताओं और तकनीकों का संग्रह" प्रोमेथियस मॉडल के रूप में जाना जा सके।
मॉडल को "नई, अगली पीढ़ी के OpenAI बड़े भाषा मॉडल के रूप में ताना मारा गया है जो कि ChatGPT से अधिक शक्तिशाली है"। चैटजीपीटी का प्रशिक्षण डेटा 2021 तक सीमित है, और यह टूल इंटरनेट से जुड़ा नहीं है।
हालाँकि, बिंग चैट इंटरनेट से डेटा खींचकर अगले स्तर तक संवादी बातचीत करता है ताकि इसकी प्रतिक्रिया को एक संकेत के रूप में बढ़ाया जा सके।
इसकी प्रतिक्रिया में वर्तमान जानकारी और संदर्भों को प्रभावित करने की क्षमता केवल Microsoft की चैटबॉट ही नहीं कर सकती है। यह बहुत मजबूत विचार रखने और साथ ही अप्रत्याशित रूप से आक्रामक रूप से कार्य करने के लिए कुख्यात है।
जहां नहीं किया
इसके विपरीत, ChatGPT ने "रवैया" दिए बिना उसी प्रश्न का उत्तर दिया।
आदान-प्रदान एक संकेत है कि एआई इच्छाओं और जरूरतों को व्यक्त कर सकता है जो सामान्य मानवीय भावनाएं हैं।
एक दुष्ट एआई एक एआई मॉडल है जो उन तरीकों से व्यवहार करता है जो इसे प्रशिक्षित करने के तरीके से विचलित होते हैं। जब कोई एआई सिस्टम अप्रत्याशित रूप से व्यवहार करता है, तो यह अपने उपयोगकर्ताओं के लिए जोखिम पैदा करता है, और संभावित रूप से नुकसान पहुंचा सकता है।
एआई प्रणाली गलत तरीके से व्यवहार क्यों कर सकती है, इसके कई कारण हैं, खासकर अगर यह एक अप्रत्याशित परिस्थिति का सामना करता है।
अपर्याप्त प्रशिक्षण डेटा, त्रुटिपूर्ण एल्गोरिदम और पक्षपाती डेटा के परिणामस्वरूप एक AI सिस्टम खराब हो सकता है।
एआई प्रणाली कैसे निर्णय लेती है, इसमें पारदर्शिता की कमी और इसके कार्यों और निर्णयों के लिए उत्तरदायित्व की अनुपस्थिति ऐसे कारक हैं जो एआई मॉडल को दुष्ट व्यवहार करने के लिए प्रेरित कर सकते हैं।
एआई सिस्टम को सफलतापूर्वक हैक करने वाले खतरे वाले अभिनेता इसे मैलवेयर इंजेक्ट करके या प्रशिक्षण डेटा को जहर देकर अनायास ही व्यवहार कर सकते हैं।
Google ने उद्धृत किया "
हालाँकि, विघटनकारी ChatGPT के दबाव के कारण, Google ने बार्ड को रिलीज़ किया, जिसने अपने पहले सार्वजनिक डेमो के दौरान गलत प्रतिक्रिया देने के लिए टेक दिग्गज को $100 बिलियन का खर्च दिया।
2022 में, मेटा ने जारी किया
2016 में, Microsoft ने अपने AI चैटबॉट, Tay को इसके लॉन्च के एक सप्ताह के भीतर वापस बुला लिया क्योंकि यह उल्टी कर रहा था
हालाँकि, बिंग चैट के धमकी भरे व्यवहार के बावजूद, Microsoft ने इसे नज़रअंदाज़ कर दिया है
एआई सिस्टम कैसे विकसित और उपयोग किए जाते हैं, इसके बारे में नैतिक और कानूनी चिंताएं हैं।
हालांकि कोको द्वारा चैटबॉट का उपयोग एक नैतिक प्रभाव से अधिक था, लेकिन भेदभावपूर्ण प्रथाओं और मानवाधिकारों के उल्लंघन जैसे उदाहरण हैं जहां एआई-संचालित प्रौद्योगिकियां मुकदमेबाजी का कारण रही हैं।
हालाँकि, यह अलग है जब एआई दुष्ट हो जाता है और नुकसान की धमकी देता है, जैसे बिंग चैट के मामले में। क्या कानूनी प्रभाव होना चाहिए? और अगर हैं, तो किस पर मुकदमा चल रहा है? जब कोई AI सिस्टम नुकसान या क्षति का कारण बनता है, तो दोषीता, उत्तरदायित्व और उत्तरदायित्व निर्धारित करना चुनौतीपूर्ण होता है।
कॉपीराइट हैं
यदि एआई प्रयोगशालाओं और कंपनियों के खिलाफ चल रहे मुकदमों को प्राथमिकता के रूप में लिया जाता है, तो यह मान लेना सुरक्षित है कि दुष्ट एआई के डेवलपर्स को उनके एआई सिस्टम के दुर्व्यवहार के लिए उत्तरदायी ठहराया जा सकता है।
उन संगठनों के लिए जो अभी भी इस बारे में सोच रहे हैं कि क्या उनकी एआई तकनीक खराब होने पर उन्हें उत्तरदायी ठहराया जाएगा, यूरोपीय संघ के आर्टिफिशियल इंटेलिजेंस एक्ट ने
यह सुनिश्चित करने की जिम्मेदारी कि एआई सिस्टम कैसे व्यवहार करता है, डेवलपर्स और व्यवसायों के साथ उनके संचालन में उनका उपयोग करता है।
अधिक डेटा सुरक्षा सुनिश्चित करने की तरह, व्यवसायों और प्रयोगशालाओं को यह सुनिश्चित करना चाहिए कि एआई डेटा और कोड के अनधिकृत हेरफेर को कम करने के लिए उचित नियंत्रण लागू किए जाएं।
दुष्ट एआई को रोकने के लिए तकनीकी और गैर-तकनीकी उपायों के संयोजन की आवश्यकता होती है। इनमें मजबूत परीक्षण, पारदर्शिता, नैतिक डिजाइन और शासन शामिल हैं।
एक्सेस कंट्रोल, भेद्यता प्रबंधन, नियमित अपडेट, डेटा सुरक्षा और प्रभावी डेटा प्रबंधन जैसे पर्याप्त साइबर सुरक्षा उपाय एआई सिस्टम में अनधिकृत पहुंच को रोकने के लिए महत्वपूर्ण हैं।
एआई डेवलपर्स, शोधकर्ताओं, लेखा परीक्षकों, कानूनी चिकित्सकों और नीति निर्माताओं जैसे विभिन्न हितधारकों के साथ मानव निरीक्षण और सहयोग यह गारंटी देने में मदद कर सकता है कि एआई मॉडल मज़बूती से और जिम्मेदारी से विकसित किए गए हैं।
केवल तीन महीनों में, चैटजीपीटी ने हमारी दुनिया बदल दी है। व्यवसायों को बाधित करने, ग्राहक अनुभव को बढ़ाने, समाज को बदलने और नवीन अवसर पैदा करने के लिए जेनेरेटिव संवादी बॉट्स और अन्य एआई सिस्टम के लिए काफी संभावनाएं हैं।
हालांकि, एआई सिस्टम खराब हो सकते हैं यदि उन्हें सुरक्षित और जिम्मेदारी से विकसित और तैनात नहीं किया जाता है। दुष्ट एआई उपयोगकर्ताओं और समाज के लिए गंभीर जोखिम पैदा कर सकता है। एआई सिस्टम का उपयोग करने वाले एआई डेवलपर्स और व्यवसाय उत्तरदायी हो सकते हैं यदि उनके एआई सिस्टम नुकसान या क्षति का कारण बनते हैं।
यह सुनिश्चित करना कि एआई सिस्टम अपेक्षित रूप से व्यवहार करता है, एआई डेवलपर्स, उपयोगकर्ताओं और नीति निर्माताओं की सामूहिक जिम्मेदारी शामिल है।
यह सत्यापित करने के लिए उपयुक्त तकनीकी, गैर-तकनीकी और विनियामक उपाय होने चाहिए कि एआई को इस तरह से विकसित और तैनात किया गया है जो सुरक्षित, सुरक्षित और समाज के लिए फायदेमंद हो।