paint-brush
डीपफेक को गंभीरता से लेनाद्वारा@synthesys
854 रीडिंग
854 रीडिंग

डीपफेक को गंभीरता से लेना

द्वारा Synthesys AI Studio2022/04/18
Read on Terminal Reader
Read this story w/o Javascript

बहुत लंबा; पढ़ने के लिए

डीपफेक ऐसी छवियां, आवाजें और वीडियो हैं जो दर्शकों को गुमराह करने के उद्देश्य से एआई एल्गोरिदम द्वारा या उसकी मदद से बनाए जाते हैं। "डीपफेक" शब्द का इस्तेमाल पहली बार 2017 के अंत में इसी नाम के एक Reddit उपयोगकर्ता द्वारा किया गया था, जिसने Reddit साइट पर ओपन-सोर्स फेस-स्वैपिंग तकनीक का उपयोग करके अश्लील वीडियो साझा किया था। प्रौद्योगिकी का उपयोग वास्तविक दुनिया में लोगों को ऐसे वीडियो और ऑडियो में दिखाने के लिए भी किया जा सकता है जो वे कहते या करते हैं जो उन्होंने कभी नहीं कहा या किया, मौजूदा वीडियो में लोगों को बदलने के लिए, या पूरी तरह से गैर-मौजूद पात्रों, मशहूर हस्तियों के साथ वीडियो सामग्री बनाने के लिए, या महत्वपूर्ण राजनेता।

People Mentioned

Mention Thumbnail

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - डीपफेक को गंभीरता से लेना
Synthesys AI Studio HackerNoon profile picture


कृत्रिम बुद्धि दूर नहीं जा रही है। इस गेम-चेंजिंग तकनीक में केवल मानवीय विचारों का अनुकरण करके दक्षता में सुधार करने की क्षमता है और विशिष्ट समस्याओं को हल करने के लिए प्रशिक्षित किया जा सकता है। के अनुसार स्टेटिस्टा एआई 2025 तक एक बड़ा अरब डॉलर का उद्योग होगा, जिसमें शिक्षा में व्यक्तिगत शिक्षा से लेकर ई-कॉमर्स और व्यवसाय में बेहतर ग्राहक सेवा तक के अनुप्रयोग होंगे।


कृत्रिम बुद्धिमत्ता प्रगति के लिए परिदृश्य असीम और तेज़ है, जिसमें प्रतिदिन नई सफलताएँ होती हैं। उदाहरण के लिए, एआई वीडियो और आवाज के संदर्भ में, हम नई सुविधाओं के जोड़े जाने और वीडियो पीढ़ी के और अधिक होने का अनुमान लगा सकते हैं यथार्थवादी और नियंत्रणीय आने वाले वर्षों में, जिनमें से एक डीपफेक है।


कई मायनों में, यह नैतिकता और जोखिम मूल्यांकन के लिए उतनी ही नई सीमा है जितनी अन्य बढ़ती प्रौद्योगिकियों के लिए है। इसने मानवता को आगे बढ़ाने में कृत्रिम बुद्धिमत्ता की भूमिका को औपचारिक रूप से निर्दिष्ट करने के लिए एआई आचार संहिता को अपनाने वाले संगठनों को जन्म दिया है। एआई कोड ऑफ एथिक्स का उद्देश्य हितधारकों को आर्टिफिशियल इंटेलिजेंस के उपयोग के आसपास के नैतिक निर्णय का सामना करने के लिए बहुत आवश्यक दिशा प्रदान करना है।

डीपफेक टेक्नोलॉजी का परिचय


डीपफेक ऐसी छवियां, आवाजें और वीडियो हैं जो दर्शकों को गुमराह करने के उद्देश्य से एआई एल्गोरिदम द्वारा या उसकी मदद से बनाए गए हैं।


"डीपफेक" शब्द का इस्तेमाल पहली बार 2017 के अंत में इसी नाम के एक Reddit उपयोगकर्ता द्वारा किया गया था, जिसने Reddit साइट पर ओपन-सोर्स फेस-स्वैपिंग तकनीक का उपयोग करके अश्लील वीडियो साझा किया था। तब से इस शब्द का विस्तार "सिंथेटिक मीडिया एप्लिकेशन" को शामिल करने के लिए किया गया है जो रेडिट पेज से पहले मौजूद थे, साथ ही साथ स्टाइल-जीएएन जैसी नई रचनाएं - "उन लोगों की यथार्थवादी दिखने वाली छवियां जो मौजूद नहीं हैं।"


डीपफेक तकनीक नई ऑडियो या वीडियो सामग्री उत्पन्न करने के लिए किसी के व्यवहार का उपयोग करती है - जैसे आवाज, चेहरा, सामान्य चेहरे का भाव, या शारीरिक हलचल - जो वास्तविक से मुश्किल से अलग है। इस तकनीक का उपयोग वास्तविक दुनिया में लोगों को उन वीडियो और ऑडियो में दिखाने के लिए भी किया जा सकता है जो वे कहते या करते हैं जो उन्होंने कभी नहीं कहा या किया, मौजूदा वीडियो में लोगों को बदलने के लिए, या पूरी तरह से गैर-मौजूद पात्रों, मशहूर हस्तियों के साथ वीडियो सामग्री बनाने के लिए, या महत्वपूर्ण प्रमुख राजनेता; और इसने डीपफेक की नैतिकता के बारे में कई चिंताओं को जन्म दिया है।


हाई-टेक स्टूडियो में विशेषज्ञों के लिए डीपफेक इफेक्ट बनाने में कम से कम एक साल का समय लगता था, लेकिन मशीन लर्निंग के उपयोग के साथ, वर्षों से डीपफेक तकनीक के तेजी से विकास ने नकली सामग्री के निर्माण को बहुत आसान और तेज बना दिया है।

एआई इमेज, एआई वीडियो और एआई ऑडियो के अंतर्निहित नेटवर्क


डीपफेक की शुरुआत आर्टिफिशियल न्यूरल नेटवर्क्स (एएनएन) के विकास के साथ हुई। एएनएन एक मशीन लर्निंग मॉडल है जो न्यूरॉन्स के एक नेटवर्क पर बनाया गया है जो उल्लेखनीय रूप से मानव मस्तिष्क के समान है। हालांकि, यह अलग है कि एआई इसे आपूर्ति किए गए नए डेटा के बारे में भविष्यवाणियां नहीं करता है; इसके बजाय, यह नया डेटा बनाता है। इन एल्गोरिदम को जनरेटिव एडवरसैरियल नेटवर्क (जीएएन) के रूप में जाना जाता है, और हाल की सफलताओं ने अनुसंधान और विकास को बढ़ावा दिया है, जिसके परिणामस्वरूप डीपफेक का उदय हुआ है।


कनवल्शनल न्यूरल नेटवर्क्स (सीएनएन), जो एएनएन पर आधारित हैं, अनुकरण करते हैं कि कंप्यूटर छवि पहचान करने के लिए विज़ुअल कॉर्टेक्स छवियों को कैसे संसाधित करता है। आर्टिफिशियल और कन्वेन्शनल न्यूरल नेटवर्क्स डीप लर्निंग प्रोग्राम्स का आधार रखते हैं और एल्गोरिदम को रेखांकित करते हैं जो आज डीपफेक उत्पन्न करते हैं: जनरेटिव एडवरसैरियल नेटवर्क।


उदाहरण के लिए, ज़ाओ और फेसएप (सबसे शुरुआती डीपफेक सफलताओं में से एक) जैसे फेस-स्वैपिंग ऐप, उपयोगकर्ताओं को किसी अन्य व्यक्ति के साथ अपने चेहरे को स्वैप करने की अनुमति देते हैं, कभी-कभी एक सेलिब्रिटी का, एक डीपफेक बनाने के लिए या एआई वीडियो या सेकंड में छवि। ये प्रगति डीप जनरेटिव मॉडलिंग का परिणाम है, एक सफल तकनीक जो हमें मौजूदा चेहरों के डुप्लिकेट बनाने और उन लोगों के नए, लुभावने यथार्थवादी प्रतिनिधित्व का निर्माण करने की अनुमति देती है जो मौजूद नहीं हैं।


इस नई तकनीक ने निजता और पहचान के बारे में चिंताएं पैदा कर दी हैं। लेकिन, अगर एक एल्गोरिथ्म हमारे रूप का निर्माण कर सकता है, तो क्या हमारी अपनी डिजिटल पहचान की और भी अधिक विशेषताओं को दोहराना संभव होगा, जैसे कि हमारी आवाज - या शायद एक पूर्ण-शरीर डबल बनाएं?

धमकी डीपफेक पोज


डीपफेक हमारे समुदाय, राजनीतिक व्यवस्था और व्यवसाय के लिए एक महत्वपूर्ण खतरा पैदा करते हैं क्योंकि वे उन पत्रकारों पर दबाव डालते हैं जो वास्तविक और नकली समाचारों के बीच अंतर करने के लिए संघर्ष कर रहे हैं, प्रचार प्रकाशित करके और चुनावों को बाधित करके राष्ट्रीय सुरक्षा को खतरे में डालते हैं, अधिकारियों में नागरिकों के विश्वास को कमजोर करते हैं और साइबर सुरक्षा बढ़ाते हैं। व्यक्तियों और संगठनों के लिए चिंता।


डीपफेक सबसे अधिक संभावना पत्रकारिता व्यवसाय के लिए सबसे बड़ा खतरा है क्योंकि वे "पारंपरिक" नकली समाचारों की तुलना में अधिक खतरनाक हैं क्योंकि उनका पता लगाना अधिक कठिन होता है, और उपभोक्ताओं के नकली होने की संभावना अधिक होती है। इसके अलावा, प्रौद्योगिकी स्पष्ट रूप से विश्वसनीय समाचार वीडियो बनाने में सक्षम बनाती है, जिससे पत्रकारों और मीडिया की प्रतिष्ठा खतरे में पड़ जाती है। केवल कुछ छवियों से, अब वीडियो बनाए जा सकते हैं और गलत तरीके से पेश की गई वीडियो सामग्री, जैसे कि वास्तविक विरोध मार्च या हिंसक संघर्ष, जिसका अर्थ यह है कि यह कहीं और हुआ था, एक बढ़ता हुआ मुद्दा है जो डीपफेक के उदय से और बढ़ जाएगा।


रॉयटर्स उदाहरण के लिए, क्राइस्टचर्च, न्यूज़ीलैंड में सामूहिक शूटिंग के प्रत्यक्षदर्शी वीडियो की खोज करते समय पुलिस द्वारा एक संदिग्ध की गोली मारकर हत्या करने का दावा करने वाला एक वीडियो खोजा गया। हालांकि, उन्होंने जल्दी से महसूस किया कि यह संयुक्त राज्य में एक अलग घटना से था और क्राइस्टचर्च शूटिंग में संदिग्ध की हत्या नहीं की गई थी।


ख़ुफ़िया एजेंसियों के लिए कुछ डरना ही काफी है, क्योंकि डीपफेक का इस्तेमाल राजनीतिक प्रचार प्रसार और चुनाव अभियानों में हस्तक्षेप करके राष्ट्रीय सुरक्षा को खतरे में डालने के लिए किया जा सकता है।


अमेरिकी खुफिया अधिकारियों ने अक्सर अमेरिकी राजनीति में विदेशी भागीदारी के खतरों के बारे में चेतावनी दी है, खासकर चुनावों के लिए। किसी के मुंह में शब्द डालना वायरल वीडियो आज के दुष्प्रचार युद्धों में एक मजबूत हथियार है, और संपादित फिल्में आसानी से मतदाताओं की राय को प्रभावित कर सकती हैं। जबकि इस तरह की मनगढ़ंत रिकॉर्डिंग से घरेलू अशांति, दंगे और चुनावी गड़बड़ी उत्पन्न होने की संभावना है, अन्य राष्ट्र-राज्य धोखे के आधार पर अपनी विदेश नीति को अंजाम देने का विकल्प चुन सकते हैं, जिससे संभावित रूप से अंतर्राष्ट्रीय संकट और युद्ध हो सकते हैं।


इस तरह की रिकॉर्डिंग की एक सतत धारा डिजिटल साक्षरता और प्राधिकरण द्वारा प्रदान की गई जानकारी में नागरिकों के विश्वास को बाधित करने की भी संभावना है। फोनी रिकॉर्डिंग, जिसे सिंथेसिस जैसे टेक्स्ट टू स्पीच फीचर के साथ आसानी से जेनरेट किया जा सकता है। एआई आवाजें सरकारी अधिकारियों द्वारा उन बातों को व्यक्त करने की जो कभी नहीं हुई, लोगों को अधिकारियों पर अविश्वास करने का कारण बनती है। इसके अलावा, लोग प्रामाणिक वीडियोटेप को केवल इसलिए झूठ के रूप में खारिज कर सकते हैं क्योंकि उन्होंने यह मान लेना सीख लिया है कि जो कुछ भी वे स्वीकार नहीं करना चाहते हैं वह नकली होना चाहिए। दूसरे शब्दों में, सबसे बड़ा खतरा यह है कि लोग हर चीज को छल करने की बजाय छल के रूप में देखने लगेंगे।


डीपफेक द्वारा पेश की जाने वाली एक और समस्या साइबर सुरक्षा भेद्यता है। उदाहरण के लिए, डीपफेक का उपयोग बाजार और शेयरों को प्रभावित करने के लिए भी किया जा सकता है, उदाहरण के लिए, एक सीईओ को नस्लवादी अश्लीलता बोलने, नकली विलय की घोषणा करने, या उन्हें इस तरह पेश करने के लिए जैसे कि उन्होंने एक अपराध किया हो। इसके अलावा, डीपफेक पोर्न या उत्पाद घोषणाओं का इस्तेमाल कंपनी के ब्रांड को नुकसान पहुंचाने, ब्लैकमेल करने या प्रबंधन को अपमानित करने के लिए किया जा सकता है। डीपफेक तकनीक भी एक कार्यकारी के डिजिटल रूप से प्रतिरूपण की अनुमति दे सकती है, उदाहरण के लिए, किसी कर्मचारी से तत्काल नकद हस्तांतरण या निजी जानकारी का अनुरोध करने के लिए।

डीपफेक का सकारात्मक पक्ष


डीपफेक तकनीक द्वारा प्रस्तुत संभावित खतरों के बावजूद, यह हो सकता है सकारात्मक अनुप्रयोग मनोरंजन, शैक्षिक मीडिया, डिजिटल संचार, खेल, सोशल मीडिया और स्वास्थ्य सेवा जैसे क्षेत्रों में।


उदाहरण के लिए, फिल्मों में जहां बीमारी के कारण अभिनेताओं की आवाज खो गई है, डीपफेक तकनीक सिंथेटिक आवाज बनाने या फिल्म फुटेज को रीमेक करने के बजाय उसे अपडेट करने में सहायता कर सकती है। नतीजतन, फिल्म निर्माता पुराने फिल्म दृश्यों को पुन: पेश करने में सक्षम होंगे, नई फिल्में बना सकते हैं जो लंबे समय से मृत अभिनेताओं को अभिनीत कर सकते हैं, सीजीआई प्रभाव नियोजित करें और पोस्ट-प्रोडक्शन में जटिल चेहरा संपादन, और शौकिया वीडियो को एक पेशेवर मानक तक ले जाना।


डीपफेक तकनीक किसी भी भाषा में फिल्मों के लिए प्राकृतिक आवाज डबिंग को सक्षम बनाती है, जिससे विभिन्न दर्शकों को फिल्मों और शैक्षिक सामग्री का अधिक प्रभावी ढंग से आनंद मिलता है। ए 2019 विश्वव्यापी मलेरिया जागरूकता वाणिज्यिक डेविड बेकहम अभिनीत दृश्य और आवाज-परिवर्तनकारी तकनीकों का उपयोग करके उन्हें बहुभाषी दिखाने के लिए भाषा की सीमाओं को तोड़ दिया।



https://www.youtube.com/watch?v=QiiSAvKJIHo


डीपफेक तकनीक ऑनलाइन गेम और वर्चुअल चैट की दुनिया में बेहतर टेलीप्रेजेंस, नेचुरल-साउंडिंग और दिखने वाले स्मार्ट असिस्टेंट और व्यक्तियों की वर्चुअल प्रतिकृतियां प्रदान करती है। यह बेहतर मानवीय संबंधों और ऑनलाइन जुड़ाव के विकास में योगदान देता है।


ब्रांड-लागू डीपफेक तकनीक की संभावनाओं से व्यवसायों को भी बहुत लाभ होता है क्योंकि इसमें ई-कॉमर्स और विज्ञापन में महत्वपूर्ण क्रांति लाने की क्षमता होती है।


उदाहरण के लिए, डीपफेक तकनीक ग्राहकों को यह पूर्वावलोकन करने की क्षमता देने के लिए वर्चुअल फिटिंग को सक्षम कर सकती है कि खरीदने से पहले उन पर एक पोशाक कैसे दिखाई देगी और व्यक्तिगत फैशन विज्ञापन बना सकती है जो समय, मौसम और दर्शक के आधार पर भिन्न हो सकते हैं, साथ ही साथ बना सकते हैं एआई अवतार जो ग्राहकों के साथ संचार को वैयक्तिकृत कर सकता है और सुपरपर्सनल सामग्री को सक्षम कर सकता है जो लोगों को मॉडल में बदल देता है। इसके अलावा, इंटरनेट पर कपड़ों पर कोशिश करने की क्षमता एक स्पष्ट संभावित उपयोग है; प्रौद्योगिकी न केवल लोगों को स्वयं का डिजिटल क्लोन बनाने की अनुमति देती है, बल्कि लोगों को डिजिटल रूप में दुल्हन के परिधानों को आज़माने की अनुमति देती है और बदले में, वस्तुतः एक शादी के स्थान का अनुभव करती है।

आलिंगन के लिए नैतिक आचरण


व्यापक पैमाने पर नवाचार एक नैतिक मुद्दा है क्योंकि नैतिकता मूल रूप से किसी भी चीज से संबंधित है जो मानव कल्याण को बढ़ा या बाधित कर सकती है। नतीजतन, नवाचार के लक्ष्यों, जैसे कि डीपफेक, के साथ-साथ जिस प्रक्रिया के द्वारा इसे किया जाता है और इसके परिणामस्वरूप होने वाले परिणामों का निर्धारण करने में नैतिकता महत्वपूर्ण है। मूल प्रश्न यह है कि, "डीपफेक किसके लिए डिज़ाइन किए गए हैं?"


"उनके निर्माण का उद्देश्य क्या है?" "सबसे गंभीर परिणामों को कैसे कम किया जा सकता है?" इन सवालों के जवाब संगठनों और व्यक्तियों को निम्नलिखित के साथ संरेखित करने में मदद कर सकते हैं नैतिक ढांचा , जिसे यूनिसेफ बनाए रखता है, भले ही वे किसी चित्र, ऑडियो, या वीडियो डीपफेक पर काम करते हों।


वे सम्मिलित करते हैं:


  • उपयोगकर्ता को ध्यान में रखकर डिज़ाइन करें।
  • मौजूदा पारिस्थितिकी तंत्र को समझें।
  • पैमाने के लिए डिजाइन।
  • स्थिरता के लिए बनाएँ।
  • डेटा-संचालित बनें।
  • ओपन स्टैंडर्ड, ओपन डेटा, ओपन सोर्स और ओपन इनोवेशन का इस्तेमाल करें।
  • पुन: उपयोग और सुधार करें।
  • नुकसान न करें।
  • सहयोगी बनें।