कृत्रिम बुद्धि दूर नहीं जा रही है। इस गेम-चेंजिंग तकनीक में केवल मानवीय विचारों का अनुकरण करके दक्षता में सुधार करने की क्षमता है और विशिष्ट समस्याओं को हल करने के लिए प्रशिक्षित किया जा सकता है। के अनुसार
कृत्रिम बुद्धिमत्ता प्रगति के लिए परिदृश्य असीम और तेज़ है, जिसमें प्रतिदिन नई सफलताएँ होती हैं। उदाहरण के लिए, एआई वीडियो और आवाज के संदर्भ में, हम नई सुविधाओं के जोड़े जाने और वीडियो पीढ़ी के और अधिक होने का अनुमान लगा सकते हैं
कई मायनों में, यह नैतिकता और जोखिम मूल्यांकन के लिए उतनी ही नई सीमा है जितनी अन्य बढ़ती प्रौद्योगिकियों के लिए है। इसने मानवता को आगे बढ़ाने में कृत्रिम बुद्धिमत्ता की भूमिका को औपचारिक रूप से निर्दिष्ट करने के लिए एआई आचार संहिता को अपनाने वाले संगठनों को जन्म दिया है। एआई कोड ऑफ एथिक्स का उद्देश्य हितधारकों को आर्टिफिशियल इंटेलिजेंस के उपयोग के आसपास के नैतिक निर्णय का सामना करने के लिए बहुत आवश्यक दिशा प्रदान करना है।
"डीपफेक" शब्द का इस्तेमाल पहली बार 2017 के अंत में इसी नाम के एक Reddit उपयोगकर्ता द्वारा किया गया था, जिसने Reddit साइट पर ओपन-सोर्स फेस-स्वैपिंग तकनीक का उपयोग करके अश्लील वीडियो साझा किया था। तब से इस शब्द का विस्तार "सिंथेटिक मीडिया एप्लिकेशन" को शामिल करने के लिए किया गया है जो रेडिट पेज से पहले मौजूद थे, साथ ही साथ स्टाइल-जीएएन जैसी नई रचनाएं - "उन लोगों की यथार्थवादी दिखने वाली छवियां जो मौजूद नहीं हैं।"
डीपफेक तकनीक नई ऑडियो या वीडियो सामग्री उत्पन्न करने के लिए किसी के व्यवहार का उपयोग करती है - जैसे आवाज, चेहरा, सामान्य चेहरे का भाव, या शारीरिक हलचल - जो वास्तविक से मुश्किल से अलग है। इस तकनीक का उपयोग वास्तविक दुनिया में लोगों को उन वीडियो और ऑडियो में दिखाने के लिए भी किया जा सकता है जो वे कहते या करते हैं जो उन्होंने कभी नहीं कहा या किया, मौजूदा वीडियो में लोगों को बदलने के लिए, या पूरी तरह से गैर-मौजूद पात्रों, मशहूर हस्तियों के साथ वीडियो सामग्री बनाने के लिए, या महत्वपूर्ण प्रमुख राजनेता; और इसने डीपफेक की नैतिकता के बारे में कई चिंताओं को जन्म दिया है।
हाई-टेक स्टूडियो में विशेषज्ञों के लिए डीपफेक इफेक्ट बनाने में कम से कम एक साल का समय लगता था, लेकिन मशीन लर्निंग के उपयोग के साथ, वर्षों से डीपफेक तकनीक के तेजी से विकास ने नकली सामग्री के निर्माण को बहुत आसान और तेज बना दिया है।
डीपफेक की शुरुआत आर्टिफिशियल न्यूरल नेटवर्क्स (एएनएन) के विकास के साथ हुई। एएनएन एक मशीन लर्निंग मॉडल है जो न्यूरॉन्स के एक नेटवर्क पर बनाया गया है जो उल्लेखनीय रूप से मानव मस्तिष्क के समान है। हालांकि, यह अलग है कि एआई इसे आपूर्ति किए गए नए डेटा के बारे में भविष्यवाणियां नहीं करता है; इसके बजाय, यह नया डेटा बनाता है। इन एल्गोरिदम को जनरेटिव एडवरसैरियल नेटवर्क (जीएएन) के रूप में जाना जाता है, और हाल की सफलताओं ने अनुसंधान और विकास को बढ़ावा दिया है, जिसके परिणामस्वरूप डीपफेक का उदय हुआ है।
कनवल्शनल न्यूरल नेटवर्क्स (सीएनएन), जो एएनएन पर आधारित हैं, अनुकरण करते हैं कि कंप्यूटर छवि पहचान करने के लिए विज़ुअल कॉर्टेक्स छवियों को कैसे संसाधित करता है। आर्टिफिशियल और कन्वेन्शनल न्यूरल नेटवर्क्स डीप लर्निंग प्रोग्राम्स का आधार रखते हैं और एल्गोरिदम को रेखांकित करते हैं जो आज डीपफेक उत्पन्न करते हैं: जनरेटिव एडवरसैरियल नेटवर्क।
उदाहरण के लिए, ज़ाओ और फेसएप (सबसे शुरुआती डीपफेक सफलताओं में से एक) जैसे फेस-स्वैपिंग ऐप, उपयोगकर्ताओं को किसी अन्य व्यक्ति के साथ अपने चेहरे को स्वैप करने की अनुमति देते हैं, कभी-कभी एक सेलिब्रिटी का, एक डीपफेक बनाने के लिए या
इस नई तकनीक ने निजता और पहचान के बारे में चिंताएं पैदा कर दी हैं। लेकिन, अगर एक एल्गोरिथ्म हमारे रूप का निर्माण कर सकता है, तो क्या हमारी अपनी डिजिटल पहचान की और भी अधिक विशेषताओं को दोहराना संभव होगा, जैसे कि हमारी आवाज - या शायद एक पूर्ण-शरीर डबल बनाएं?
डीपफेक हमारे समुदाय, राजनीतिक व्यवस्था और व्यवसाय के लिए एक महत्वपूर्ण खतरा पैदा करते हैं क्योंकि वे उन पत्रकारों पर दबाव डालते हैं जो वास्तविक और नकली समाचारों के बीच अंतर करने के लिए संघर्ष कर रहे हैं, प्रचार प्रकाशित करके और चुनावों को बाधित करके राष्ट्रीय सुरक्षा को खतरे में डालते हैं, अधिकारियों में नागरिकों के विश्वास को कमजोर करते हैं और साइबर सुरक्षा बढ़ाते हैं। व्यक्तियों और संगठनों के लिए चिंता।
डीपफेक सबसे अधिक संभावना पत्रकारिता व्यवसाय के लिए सबसे बड़ा खतरा है क्योंकि वे "पारंपरिक" नकली समाचारों की तुलना में अधिक खतरनाक हैं क्योंकि उनका पता लगाना अधिक कठिन होता है, और उपभोक्ताओं के नकली होने की संभावना अधिक होती है। इसके अलावा, प्रौद्योगिकी स्पष्ट रूप से विश्वसनीय समाचार वीडियो बनाने में सक्षम बनाती है, जिससे पत्रकारों और मीडिया की प्रतिष्ठा खतरे में पड़ जाती है।
ख़ुफ़िया एजेंसियों के लिए कुछ डरना ही काफी है, क्योंकि डीपफेक का इस्तेमाल राजनीतिक प्रचार प्रसार और चुनाव अभियानों में हस्तक्षेप करके राष्ट्रीय सुरक्षा को खतरे में डालने के लिए किया जा सकता है।
अमेरिकी खुफिया अधिकारियों ने अक्सर अमेरिकी राजनीति में विदेशी भागीदारी के खतरों के बारे में चेतावनी दी है, खासकर चुनावों के लिए।
इस तरह की रिकॉर्डिंग की एक सतत धारा डिजिटल साक्षरता और प्राधिकरण द्वारा प्रदान की गई जानकारी में नागरिकों के विश्वास को बाधित करने की भी संभावना है। फोनी रिकॉर्डिंग, जिसे सिंथेसिस जैसे टेक्स्ट टू स्पीच फीचर के साथ आसानी से जेनरेट किया जा सकता है।
डीपफेक द्वारा पेश की जाने वाली एक और समस्या साइबर सुरक्षा भेद्यता है। उदाहरण के लिए, डीपफेक का उपयोग बाजार और शेयरों को प्रभावित करने के लिए भी किया जा सकता है, उदाहरण के लिए, एक सीईओ को नस्लवादी अश्लीलता बोलने, नकली विलय की घोषणा करने, या उन्हें इस तरह पेश करने के लिए जैसे कि उन्होंने एक अपराध किया हो। इसके अलावा, डीपफेक पोर्न या उत्पाद घोषणाओं का इस्तेमाल कंपनी के ब्रांड को नुकसान पहुंचाने, ब्लैकमेल करने या प्रबंधन को अपमानित करने के लिए किया जा सकता है। डीपफेक तकनीक भी एक कार्यकारी के डिजिटल रूप से प्रतिरूपण की अनुमति दे सकती है, उदाहरण के लिए, किसी कर्मचारी से तत्काल नकद हस्तांतरण या निजी जानकारी का अनुरोध करने के लिए।
डीपफेक तकनीक द्वारा प्रस्तुत संभावित खतरों के बावजूद, यह हो सकता है
उदाहरण के लिए, फिल्मों में जहां बीमारी के कारण अभिनेताओं की आवाज खो गई है, डीपफेक तकनीक सिंथेटिक आवाज बनाने या फिल्म फुटेज को रीमेक करने के बजाय उसे अपडेट करने में सहायता कर सकती है। नतीजतन, फिल्म निर्माता पुराने फिल्म दृश्यों को पुन: पेश करने में सक्षम होंगे, नई फिल्में बना सकते हैं जो लंबे समय से मृत अभिनेताओं को अभिनीत कर सकते हैं,
डीपफेक तकनीक किसी भी भाषा में फिल्मों के लिए प्राकृतिक आवाज डबिंग को सक्षम बनाती है, जिससे विभिन्न दर्शकों को फिल्मों और शैक्षिक सामग्री का अधिक प्रभावी ढंग से आनंद मिलता है। ए
https://www.youtube.com/watch?v=QiiSAvKJIHo
डीपफेक तकनीक ऑनलाइन गेम और वर्चुअल चैट की दुनिया में बेहतर टेलीप्रेजेंस, नेचुरल-साउंडिंग और दिखने वाले स्मार्ट असिस्टेंट और व्यक्तियों की वर्चुअल प्रतिकृतियां प्रदान करती है। यह बेहतर मानवीय संबंधों और ऑनलाइन जुड़ाव के विकास में योगदान देता है।
ब्रांड-लागू डीपफेक तकनीक की संभावनाओं से व्यवसायों को भी बहुत लाभ होता है क्योंकि इसमें ई-कॉमर्स और विज्ञापन में महत्वपूर्ण क्रांति लाने की क्षमता होती है।
उदाहरण के लिए, डीपफेक तकनीक ग्राहकों को यह पूर्वावलोकन करने की क्षमता देने के लिए वर्चुअल फिटिंग को सक्षम कर सकती है कि खरीदने से पहले उन पर एक पोशाक कैसे दिखाई देगी और व्यक्तिगत फैशन विज्ञापन बना सकती है जो समय, मौसम और दर्शक के आधार पर भिन्न हो सकते हैं, साथ ही साथ बना सकते हैं
व्यापक पैमाने पर नवाचार एक नैतिक मुद्दा है क्योंकि नैतिकता मूल रूप से किसी भी चीज से संबंधित है जो मानव कल्याण को बढ़ा या बाधित कर सकती है। नतीजतन, नवाचार के लक्ष्यों, जैसे कि डीपफेक, के साथ-साथ जिस प्रक्रिया के द्वारा इसे किया जाता है और इसके परिणामस्वरूप होने वाले परिणामों का निर्धारण करने में नैतिकता महत्वपूर्ण है। मूल प्रश्न यह है कि, "डीपफेक किसके लिए डिज़ाइन किए गए हैं?"
"उनके निर्माण का उद्देश्य क्या है?" "सबसे गंभीर परिणामों को कैसे कम किया जा सकता है?" इन सवालों के जवाब संगठनों और व्यक्तियों को निम्नलिखित के साथ संरेखित करने में मदद कर सकते हैं
वे सम्मिलित करते हैं: