paint-brush
डीपफेक टेक्नोलॉजी के खतरे: एआई-जेनरेटेड वीडियो और छवियों के संभावित जोखिमों की खोजद्वारा@sammynathaniels
6,555 रीडिंग
6,555 रीडिंग

डीपफेक टेक्नोलॉजी के खतरे: एआई-जेनरेटेड वीडियो और छवियों के संभावित जोखिमों की खोज

द्वारा Samuel Bassey15m2023/05/09
Read on Terminal Reader

बहुत लंबा; पढ़ने के लिए

डीपफेक एआई-जनित वीडियो और छवियां हैं जो लोगों, घटनाओं और वस्तुओं की वास्तविकता को बदल या गढ़ सकते हैं। यह तकनीक एक प्रकार की आर्टिफिशियल इंटेलिजेंस है जो छवियों, वीडियो और ऑडियो को बना सकती है या उनमें हेरफेर कर सकती है जो वास्तविक दिखते और ध्वनि करते हैं लेकिन प्रामाणिक नहीं हैं। इसका उपयोग मनोरंजन, शिक्षा, अनुसंधान या कला जैसे विभिन्न उद्देश्यों के लिए किया जा सकता है। हालाँकि, यह व्यक्तियों और समाज के लिए गंभीर जोखिम भी पैदा कर सकता है, जिसमें गलत सूचना फैलाना, गोपनीयता का उल्लंघन करना, प्रतिष्ठा को नुकसान पहुँचाना, पहचान का प्रतिरूपण करना और जनमत को प्रभावित करना शामिल है।
featured image - डीपफेक टेक्नोलॉजी के खतरे: एआई-जेनरेटेड वीडियो और छवियों के संभावित जोखिमों की खोज
Samuel Bassey HackerNoon profile picture
0-item
1-item

अप्रैल 2020 में बेल्जियम की प्रधानमंत्री सोफी विल्मेस का एक वीडियो दे रहा है कोरोनावायरस के बारे में एक भाषण महामारी और जलवायु परिवर्तन से इसका लिंक सोशल मीडिया पर वायरल हो गया। वीडियो को पर्यावरण के मुद्दों के बारे में जागरूकता बढ़ाने के एक अभियान के हिस्से के रूप में साझा किया गया था।


हालांकि, वीडियो असली नहीं था। यह एक गहरा नकली था, जिसे एक्सटिंक्शन रिबेलियन बेल्जियम द्वारा एआई तकनीक का उपयोग करके उत्पन्न किया गया था जो किसी के भी चेहरे के भाव और आवाज में हेरफेर कर सकता है। वीडियो को एक गहरा नकली करार दिया गया था, लेकिन कई लोगों ने इस पर ध्यान नहीं दिया या अस्वीकरण को अनदेखा कर दिया। कुछ दर्शक नकली भाषण से भ्रमित और आक्रोशित थे, जबकि अन्य ने प्रधानमंत्री के साहस और दूरदर्शिता की प्रशंसा की।


इस उदाहरण से पता चलता है कि गलत सूचना फैलाने और महत्वपूर्ण सार्वजनिक हस्तियों का प्रतिरूपण करके जनमत को प्रभावित करने के लिए कितनी गहरी नकली तकनीक का उपयोग किया जा सकता है। इससे यह भी पता चलता है कि नकली नकली का पता लगाना और उसे सत्यापित करना कितना मुश्किल हो सकता है, खासकर जब उन्हें सीमित मॉडरेशन और तथ्य-जांच क्षमताओं वाले सोशल मीडिया प्लेटफॉर्म पर साझा किया जाता है।


कल्पना कीजिए कि आप अपने पसंदीदा सेलिब्रिटी का भाषण देते हुए एक वीडियो देख रहे हैं। आप उनकी वाक्पटुता और करिश्मे से प्रभावित हैं, और आप उनके संदेश से सहमत हैं। लेकिन बाद में पता चलता है कि वीडियो असली नहीं था। यह एआई द्वारा बनाया गया एक गहरा नकली, सिंथेटिक मीडिया था जो किसी की उपस्थिति और आवाज में हेरफेर कर सकता है। आप ठगा हुआ और भ्रमित महसूस करते हैं।


आप ऑनलाइन जो देखते और सुनते हैं उस पर आप कैसे भरोसा कर सकते हैं?


यह अब एक काल्पनिक परिदृश्य नहीं है; यह अब वास्तविक है। प्रमुख अभिनेताओं, मशहूर हस्तियों, राजनेताओं और प्रभावशाली लोगों के कई डीपफेक इंटरनेट पर प्रसारित हो रहे हैं। कुछ में टिकटॉक पर टॉम क्रूज और कीनू रीव्स के डीपफेक शामिल हैं।


सरल शब्दों में, डीपफेक एआई-जनित वीडियो और छवियां हैं जो लोगों, घटनाओं और वस्तुओं की वास्तविकता को बदल या गढ़ सकते हैं। यह तकनीक एक प्रकार की कृत्रिम बुद्धिमत्ता है जो छवियों, वीडियो और ऑडियो को बना सकती है या उनमें हेरफेर कर सकती है जो वास्तविक दिखते और ध्वनि करते हैं लेकिन प्रामाणिक नहीं हैं।

डीपफेक तकनीक हर दिन अधिक परिष्कृत और सुलभ होती जा रही है। इसका उपयोग मनोरंजन, शिक्षा, अनुसंधान या कला जैसे विभिन्न उद्देश्यों के लिए किया जा सकता है। हालांकि, यह व्यक्तियों और समाज के लिए गंभीर जोखिम भी पैदा कर सकता है, जैसे गलत सूचना फैलाना, गोपनीयता का उल्लंघन करना, प्रतिष्ठा को नुकसान पहुंचाना, पहचान का प्रतिरूपण करना और जनमत को प्रभावित करना।


अपने पिछले लेख में, मैंने डीपफेक टेक्नोलॉजी, यह कैसे काम करती है, और इसके सकारात्मक और नकारात्मक प्रभावों पर चर्चा की। इस लेख में, मैं गहरी नकली तकनीक के खतरों की खोज करूँगा और हम इसके संभावित नुकसान से खुद को कैसे बचा सकते हैं।


डीपफेक टेक्नोलॉजी समाज के लिए एक संभावित खतरा कैसे है?

मैं एकबार और मुझ पर विश्वास करें, मुझे लगा कि यह उन्हें तब भी होना चाहिए जब वीडियो में संदेश यह समझने में सक्षम हो कि असत्य से वास्तविक क्या है। जब तक मैं वीडियो के अंत तक नहीं पहुंच गया तब तक मुझे संदेश समझ में नहीं आया। जाहिर तौर पर, यह मॉर्गन फ्रीमैन नहीं, बल्कि डीपफेक मॉर्गन फ्रीमैन था।


इस ज्ञान से पहले, मुझे अपने अब तक के सबसे सम्मानित अभिनेताओं में से एक को सुनना अच्छा लगा, केवल अंत में थोड़ा निराश होने के लिए कि मैंने वास्तव में एआई सिमुलेशन की बात सुनी थी। इस दर पर, क्या होगा यदि कई वीडियो जो हम देखते हैं वे केवल डीपफेक हैं? वास्तविकता के लिए खतरा अधिक से अधिक खतरनाक होता जा रहा है।


डीपफेक तकनीक समाज के लिए एक संभावित खतरा है क्योंकि यह:

  • गलत सूचना और फर्जी खबरें फैलाना जो जनमत को प्रभावित कर सकते हैं, लोकतंत्र को कमजोर कर सकते हैं और सामाजिक अशांति पैदा कर सकते हैं।
  • अनुमति के बिना व्यक्तिगत डेटा का उपयोग करके और छवि-आधारित यौन शोषण, ब्लैकमेल या उत्पीड़न बनाकर गोपनीयता और सहमति का उल्लंघन करें।
  • प्रतिरूपण या व्यक्तियों, संगठनों, या ब्रांडों को बदनाम करके प्रतिष्ठा और विश्वसनीयता को नुकसान पहुँचाना।
  • पहचान की चोरी, धोखाधड़ी या साइबर हमलों को सक्षम करके सुरक्षा जोखिम पैदा करें।
  • डीपफेक तकनीक डिजिटल पारिस्थितिकी तंत्र में विश्वास और भरोसे को भी खत्म कर सकती है, जिससे सूचना की प्रामाणिकता और स्रोत को सत्यापित करना कठिन हो जाता है।


डीपफेक टेक्नोलॉजी के खतरे और नकारात्मक उपयोग

डीपफेक तकनीक के कुछ सकारात्मक पहलू हो सकते हैं, लेकिन हमारे बढ़ते समाज में नकारात्मकता आसानी से सकारात्मकता पर हावी हो जाती है। डीपफेक के कुछ नकारात्मक उपयोगों में शामिल हैं:


  1. डीपफेक का उपयोग नकली वयस्क सामग्री बनाने के लिए किया जा सकता है जिसमें मशहूर हस्तियों या नियमित लोगों की सहमति के बिना उनकी गोपनीयता और गरिमा का उल्लंघन किया जाता है। क्योंकि एक वीडियो में एक चेहरे को दूसरे से बदलना और एक आवाज को बदलना बहुत आसान हो गया है। हैरानी की बात है, लेकिन सच है। की इस थ्रिलर को देखें, जिसमें टॉम हॉलैंड की जगह पहले स्पाइडरमैन टोबी मगुइरे का डीपफेक दिखाया गया है। जब तक आपको बताया नहीं जाएगा तब तक आप कभी भी अंतर नहीं खोज पाएंगे। यदि यह इतना ही आसान है, तो कोई भी वीडियो परिवर्तन संभव है।


  2. डीपफेक का उपयोग गलत सूचना और नकली समाचार फैलाने के लिए किया जा सकता है जो जनता को धोखा दे सकता है या हेरफेर कर सकता है। डीपफेक का उपयोग झूठी सामग्री बनाने के लिए किया जा सकता है, जैसे कि नकली भाषण, साक्षात्कार, या घटनाएं, जिनमें राजनेता, मशहूर हस्तियां या अन्य प्रभावशाली हस्तियां शामिल हों।

    जैसा कि मैंने लेख की शुरुआत में उल्लेख किया था, एक डीपफेक बेल्जियम की प्रधान मंत्री सोफी विल्मेस भाषण दे रही है, असली सोफी विल्मेस ने कभी भाषण नहीं दिया। एक अन्य केस स्टडी है।


  3. चूंकि डीपफेक तकनीक से चेहरे की अदला-बदली और आवाज में बदलाव किया जा सकता है, इसलिए इसका इस्तेमाल जनता की राय को प्रभावित करने, हिंसा भड़काने या चुनावों को बाधित करने के लिए लोकतंत्र और सामाजिक स्थिरता को कमजोर करने के लिए किया जा सकता है।

    झूठा प्रचार किया जा सकता है, नकली आवाज संदेश और वीडियो जो बताना बहुत मुश्किल है, असत्य हैं और जनता की राय को प्रभावित करने के लिए इस्तेमाल किया जा सकता है, बदनामी का कारण बन सकता है, या राजनीतिक उम्मीदवारों, पार्टियों या नेताओं को ब्लैकमेल कर सकता है।


  4. डीपफेक का इस्तेमाल व्यक्तियों, संगठनों, या ब्रांडों को प्रतिरूपण या बदनाम करके प्रतिष्ठा और विश्वसनीयता को नुकसान पहुंचाने के लिए किया जा सकता है। कल्पना करें कि टिकटॉक पर कीनू रीव्स का डीपफेक नकली समीक्षा, प्रशंसापत्र, या ग्राहकों, कर्मचारियों या प्रतिस्पर्धियों को शामिल करने वाले विज्ञापनों को बनाने में सक्षम है।


    जो लोग नहीं जानते हैं, उनके लिए राजी करना आसान होता है और ऐसी स्थिति में जहां कुछ गलत हो जाता है, इससे प्रतिष्ठा को नुकसान हो सकता है और अभिनेता में विश्वास की हानि हो सकती है।


  5. डीपफेक का उपयोग पहचान की चोरी, धोखाधड़ी या साइबर हमलों को सक्षम करके सुरक्षा जोखिम पैदा करने के लिए किया जा सकता है। 2019 में, यूके स्थित एक ऊर्जा कंपनी के सीईओ को उनके बॉस का फोन आया, जो कंपनी की जर्मन मूल कंपनी के प्रमुख थे, उन्होंने हंगरी में एक आपूर्तिकर्ता को € 220,000 के हस्तांतरण का आदेश दिया। समाचार सूत्रों के अनुसार, सीईओ ने अपने प्रमुख की आवाज के "मामूली जर्मन लहजे और माधुर्य" को स्वीकार किया और एक घंटे के भीतर धन भेजने के निर्देश का अनुपालन किया।

    हालांकि, कॉलर ने फिर से एक और तार के लिए कॉल किया था और फिर यह संदिग्ध हो गया और बाद में धोखाधड़ी होने की पुष्टि हुई। अफसोस की बात है कि यह उनके बॉस की आवाज का केवल एक डीपफेक था और शुरुआती €220,000 को मेक्सिको में स्थानांतरित कर दिया गया था और अन्य खातों में भेज दिया गया था।

    लेकिन डीपफेक फ्रॉड की यह अकेली घटना नहीं है। फ़िशिंग स्कैम, सोशल इंजीनियरिंग, या व्यक्तिगत या वित्तीय जानकारी से जुड़े अन्य स्कैम बनाने के लिए कई स्थितियों में डीपफेक तकनीक का उपयोग किया गया है।


डीपफेक टेक्नोलॉजी के नैतिक, कानूनी और सामाजिक निहितार्थ

  1. नैतिक निहितार्थ

    डीपफेक तकनीक उन लोगों के नैतिक अधिकारों और गरिमा का उल्लंघन कर सकती है जिनकी छवियों या आवाजों का उनकी सहमति के बिना उपयोग किया जाता है, जैसे कि नकली अश्लील सामग्री बनाना, बदनामी वाली सामग्री बनाना, या मशहूर हस्तियों या नियमित लोगों की पहचान की चोरी करना। डीपफेक तकनीक भी समाज में सच्चाई, विश्वास और जवाबदेही के मूल्यों को कमजोर कर सकती है, जब इसका उपयोग गलत सूचना, फर्जी समाचार, या प्रचार प्रसार के लिए किया जाता है जो जनता को धोखा दे सकता है या हेरफेर कर सकता है।


  2. कानूनी निहितार्थ

    डीपफेक तकनीक मौजूदा कानूनी ढांचे और नियमों को चुनौती दे सकती है जो बौद्धिक संपदा अधिकारों, मानहानि के अधिकारों और अनुबंध अधिकारों की रक्षा करते हैं, क्योंकि यह उन लोगों के कॉपीराइट, ट्रेडमार्क या प्रचार अधिकारों का उल्लंघन कर सकता है जिनकी छवियों या आवाजों का उनकी अनुमति के बिना उपयोग किया जाता है। .


    डीपफेक तकनीक उन लोगों के निजता अधिकारों का उल्लंघन कर सकती है जिनके निजी डेटा का इस्तेमाल उनकी सहमति के बिना किया जाता है। यह उन लोगों की प्रतिष्ठा या चरित्र को बदनाम कर सकता है जिन्हें गलत तरीके से नकारात्मक या हानिकारक तरीके से चित्रित किया गया है।


  3. सामाजिक निहितार्थ

    डीपफेक तकनीक का व्यक्तियों और समूहों के सामाजिक कल्याण और सामंजस्य पर नकारात्मक प्रभाव पड़ सकता है, क्योंकि यह डीपफेक हेरफेर के पीड़ितों को मनोवैज्ञानिक, भावनात्मक या वित्तीय नुकसान पहुंचा सकती है, जो संकट, चिंता, अवसाद या नुकसान से पीड़ित हो सकते हैं। आय।

    यह विभिन्न समूहों या समुदायों के बीच सामाजिक विभाजन और संघर्ष भी पैदा कर सकता है, हिंसा, घृणा, या उनकी जाति, लिंग, धर्म या राजनीतिक संबद्धता के आधार पर कुछ समूहों के खिलाफ भेदभाव को उकसाता है।


मुझे डर है कि अगर नियंत्रित नहीं किया गया तो भविष्य में डीपफेक तकनीक का इस्तेमाल दुष्प्रचार और प्रचार के अधिक परिष्कृत और दुर्भावनापूर्ण रूपों को बनाने के लिए किया जा सकता है। इसका उपयोग राजनीतिक विरोधियों या कार्यकर्ताओं से जुड़े अपराधों, घोटालों, या भ्रष्टाचार के नकली सबूत बनाने या ग्राहकों, कर्मचारियों या प्रतिस्पर्धियों से जुड़े नकली प्रशंसापत्र, समर्थन या समीक्षा बनाने के लिए भी किया जा सकता है।


विश्व नेताओं के युद्ध की घोषणा करने, झूठी स्वीकारोक्ति करने, या चरमपंथी विचारधाराओं का समर्थन करने के डीपफेक वीडियो होने की कल्पना करें। यह बड़े पैमाने पर दुनिया के लिए बहुत हानिकारक हो सकता है।


डीपफेक टेक्नोलॉजी का पता लगाने और विनियमित करने की चुनौतियाँ

डीपफेक का पता लगाने और नियमन की वर्तमान स्थिति अभी भी विकसित हो रही है और कई चुनौतियों का सामना कर रही है। डीपफेक सामग्री की पहचान करना और उसे ऑनलाइन फैलने से रोकना मुश्किल होने के कुछ कारण हैं:


  1. उन्नति और पहुंच में आसानी: डीपफेक सामग्री की गुणवत्ता और यथार्थवाद में सुधार हो रहा है क्योंकि कृत्रिम तंत्रिका नेटवर्क जो उन्हें उत्पन्न करते हैं वे अधिक परिष्कृत और बड़े और अधिक विविध डेटासेट पर प्रशिक्षित होते हैं। डीपफेक सॉफ्टवेयर और सेवाओं की उपलब्धता और सामर्थ्य भी बढ़ रही है, जिससे किसी के लिए भी डीपफेक सामग्री को ऑनलाइन बनाना और साझा करना आसान हो गया है।
  2. पता लगाने के तरीकों की मापनीयता और अविश्वसनीयता: डीपफेक सामग्री का पता लगाने के मौजूदा तरीके छवियों, वीडियो या ऑडियो की विभिन्न विशेषताओं या कलाकृतियों के विश्लेषण पर निर्भर करते हैं, जैसे कि चेहरे के भाव, आंखों की गति, त्वचा की बनावट, प्रकाश, छाया या पृष्ठभूमि शोर . हालाँकि, ये तरीके हमेशा सटीक या सुसंगत नहीं होते हैं, खासकर जब डीपफेक सामग्री कम गुणवत्ता वाली, संकुचित या संपादित हो। इसके अलावा, ये विधियाँ स्केलेबल या कुशल नहीं हैं, क्योंकि बड़ी मात्रा में डेटा को संसाधित करने के लिए उन्हें बहुत अधिक कम्प्यूटेशनल संसाधनों और समय की आवश्यकता होती है।
  3. जटिल और विवादास्पद विनियम: डीपफेक सामग्री से जुड़े कानूनी और नैतिक मुद्दे विभिन्न न्यायालयों, संदर्भों और उद्देश्यों में स्पष्ट या एक समान नहीं हैं। उदाहरण के लिए, डीपफेक सामग्री विभिन्न अधिकारों और हितों को शामिल कर सकती है, जैसे कि बौद्धिक संपदा अधिकार, गोपनीयता अधिकार, मानहानि अधिकार, अनुबंध अधिकार, अभिव्यक्ति अधिकारों की स्वतंत्रता और सार्वजनिक हित। हालाँकि, ये अधिकार और हित एक-दूसरे के साथ संघर्ष या ओवरलैप कर सकते हैं, सांसदों और नियामकों के लिए दुविधाएं और व्यापार बंद कर सकते हैं।

इसके अलावा, डीपफेक नियमन के प्रवर्तन और निगरानी को व्यावहारिक और तकनीकी कठिनाइयों का सामना करना पड़ सकता है, जैसे कि डीपफेक सामग्री के रचनाकारों और वितरकों की पहचान करना, उनकी देयता और जवाबदेही स्थापित करना और उचित प्रतिबंध या उपाय लागू करना।


डीपफेक टेक्नोलॉजी का पता लगाने, रोकने और मुकाबला करने के लिए वर्तमान और भविष्य की रणनीतियां और समाधान


  1. सोशल मीडिया प्लेटफॉर्म की नीतियां: हानिकारक या भ्रामक डीपफेक पर प्रतिबंध लगाने या लेबल लगाने या उपयोगकर्ताओं को डीपफेक तकनीक के उपयोग का खुलासा करने की आवश्यकता के द्वारा सोशल मीडिया प्लेटफॉर्म अपने प्लेटफॉर्म पर डीपफेक सामग्री के निर्माण और प्रसार को विनियमित करने के लिए नीतियों, दिशानिर्देशों और मानकों को लागू कर सकते हैं। . यह रणनीति फ़ेसबुक, ट्विटर, या यूट्यूब जैसे लोकप्रिय और प्रभावशाली प्लेटफार्मों पर हानिकारक या भ्रामक डीपफेक के जोखिम और प्रसार को कम करने में प्रभावी हो सकती है। डीपफेक का पता लगाने और सत्यापन उपकरण, जैसे कि डिजिटल वॉटरमार्क, ब्लॉकचैन-आधारित उद्गम प्रणाली, या रिवर्स इमेज सर्च इंजन भी किसी भी डीपफेक के अपलोड के खिलाफ मार्गदर्शन के लिए तैनात किए जा सकते हैं। ये प्लेटफॉर्म डीपफेक सामग्री की निगरानी और मुकाबला करने के लिए अन्य हितधारकों, जैसे तथ्य-जांचकर्ता, शोधकर्ताओं, या नागरिक समाज समूहों के साथ भी सहयोग कर सकते हैं। हालाँकि, इन समाधानों को मापनीयता, सटीकता, पारदर्शिता और जवाबदेही जैसी चुनौतियों का सामना करना पड़ सकता है।


  2. डिटेक्शन एल्गोरिदम: डिटेक्शन एल्गोरिदम मशीन लर्निंग और कंप्यूटर विज़न तकनीकों का उपयोग डीपफेक सामग्री की विशेषताओं और विशेषताओं का विश्लेषण करने के लिए कर सकते हैं, जैसे कि चेहरे के भाव, आंखों की गति, प्रकाश या ऑडियो गुणवत्ता, और हेरफेर का संकेत देने वाली विसंगतियों या विसंगतियों की पहचान करना। शोधकर्ता पहचान एल्गोरिदम को बेहतर बनाने के लिए कृत्रिम तंत्रिका नेटवर्क, कंप्यूटर दृष्टि एल्गोरिदम, या बायोमेट्रिक प्रमाणीकरण प्रणाली जैसे डीपफेक पहचान और सत्यापन तकनीकों को विकसित और सुधार सकते हैं।

    वे डीपफेक का पता लगाने और सत्यापन विधियों के मूल्यांकन के लिए डेटासेट और बेंचमार्क भी बना सकते हैं और साझा कर सकते हैं, और डीपफेक तकनीक के सामाजिक और नैतिक प्रभावों पर अंतःविषय अध्ययन कर सकते हैं। यह रणनीति हेरफेर का संकेत देने वाली विसंगतियों या विसंगतियों की पहचान करके सुविधाओं के विश्लेषण में प्रभावी हो सकती है। हालाँकि, इन समाधानों को डेटा उपलब्धता, गुणवत्ता और गोपनीयता के साथ-साथ नैतिक दुविधाओं और दोहरे उपयोग के जोखिम जैसी चुनौतियों का सामना करना पड़ सकता है।


  3. इंटरनेट प्रतिक्रिया: यह डीपफेक सामग्री के लिए ऑनलाइन उपयोगकर्ताओं और समुदायों की सामूहिक प्रतिक्रिया को संदर्भित करता है, जैसे संदिग्ध या हानिकारक डीपफेक को फ़्लैग करना, रिपोर्ट करना, डीबंक करना या उसकी आलोचना करना, या उन्हें बेनकाब करने या उपहास करने के लिए प्रति-कथा या पैरोडी बनाना। उपयोगकर्ता डीपफेक सामग्री की पहचान और सत्यापन करने के लिए महत्वपूर्ण सोच और मीडिया साक्षरता कौशल को अपना सकते हैं, और डीपफेक का पता लगाने और सत्यापन टूल का उपयोग भी कर सकते हैं, जैसे कि ब्राउज़र एक्सटेंशन, मोबाइल ऐप या ऑनलाइन प्लेटफ़ॉर्म, सोशल मीडिया या अन्य प्लेटफ़ॉर्म पर मिलने वाले डीपफ़ेक को सूंघने के लिए। जिसे वे डीपफेक सामग्री के रूप में रिपोर्ट या फ़्लैग कर सकते हैं। डीपफेक सामग्री के लिए ऑनलाइन उपयोगकर्ताओं और समुदायों की सामूहिक प्रतिक्रिया को संगठित करने में इंटरनेट प्रतिक्रिया रणनीति प्रभावी हो सकती है। हालाँकि, इन समाधानों को संज्ञानात्मक पक्षपात, सूचना अधिभार, डिजिटल विभाजन और विश्वास के मुद्दों जैसी चुनौतियों का सामना करना पड़ सकता है।


  4. DARPA की पहल: DARPA की पहल डीपफेक का पता लगाने और शमन प्रौद्योगिकियों के विकास को आगे बढ़ाने के लिए डिफेंस एडवांस्ड रिसर्च प्रोजेक्ट्स एजेंसी (DARPA) द्वारा वित्त पोषित अनुसंधान और विकास परियोजनाओं को संदर्भित करती है, जैसे कि बड़े पैमाने पर डेटासेट, बेंचमार्क और डीपफेक अनुसंधान के लिए चुनौतियां बनाना . उनका उद्देश्य ऐसी तकनीकों को विकसित करना है जो स्वचालित रूप से डीपफेक और मीडिया हेरफेर के अन्य रूपों का पता लगा सकें और उनका विश्लेषण कर सकें। DARPA के दो कार्यक्रम हैं जो डीपफेक का पता लगाने के लिए समर्पित हैं: Media Forensics (MediFor) और Semantic Forensics (SemaFor)।


    • Media Forensics (MediFor) , जो FY2021 में संपन्न हुआ, फ़ोटो और वीडियो की अखंडता का स्वचालित रूप से आकलन करने के लिए एल्गोरिदम विकसित करना था और विश्लेषकों को यह जानकारी प्रदान करना था कि नकली सामग्री कैसे उत्पन्न की गई थी। कथित तौर पर कार्यक्रम ने डीपफेक में मौजूद ऑडियो-विजुअल विसंगतियों की पहचान करने के लिए तकनीकों की खोज की, जैसे कि पिक्सेल में विसंगतियां (डिजिटल अखंडता), भौतिकी के नियमों के साथ असंगतता (भौतिक अखंडता), और अन्य सूचना स्रोतों (सिमेंटिक अखंडता) के साथ विसंगतियां। मेडीफॉर प्रौद्योगिकियों से ऑपरेशनल कमांड और खुफिया समुदाय में संक्रमण की उम्मीद है।


    • सिमेंटिक फ़ोरेंसिक्स (सेमाफ़ोर) , जिसकी घोषणा 2021 में की गई थी, विश्लेषकों को डिटेक्टर्स और मैनिपुलेटर्स के बीच लड़ाई में ऊपरी हाथ देने की कोशिश करता है, जो ऐसी तकनीकों का विकास कर रहा है जो नकली मीडिया संपत्तियों का पता लगाने, एट्रिब्यूशन और लक्षण वर्णन को स्वचालित करने में सक्षम हैं। कार्यक्रम का उद्देश्य स्वचालित मीडिया जेनरेटर में एक महत्वपूर्ण कमजोरी का फायदा उठाना है: सभी शब्दार्थों को सही करने में कठिनाई। उदाहरण के लिए, यह सुनिश्चित करना कि सब कुछ एक समाचार कहानी के पाठ से साथ वाली छवि से, छवि के भीतर के तत्वों से संरेखित हो। SemaFor पहचान, एट्रिब्यूशन और लक्षण वर्णन एल्गोरिदम द्वारा प्रदान किए गए सबूतों को स्वचालित रूप से इकट्ठा करने और क्यूरेट करने के लिए प्रौद्योगिकियों का विकास भी कर रहा है।

      इसके अलावा, DARPA ने लोगों के सिर और चेहरे की मांसपेशियों को कैसे हिलाया जाता है, इसका दस्तावेजीकरण करने के लिए डीपफेक रक्षात्मक मॉडल बनाए। एजेंसी ने इस डेटा का उपयोग किया और इसे "हाई-प्रोफाइल व्यक्तियों" के वीडियो का विश्लेषण करने और वास्तविक व्यक्ति के साथ व्यवहार की तुलना करने के लिए एक सॉफ्टवेयर टूल में एकीकृत किया।


  5. कानूनी प्रतिक्रिया: यह डीपफेक तकनीक द्वारा उठाए गए कानूनी और नैतिक मुद्दों को संबोधित करने के लिए मौजूदा या नए कानूनों और विनियमों का अनुप्रयोग है, जैसे कि डीपफेक दुरुपयोग के पीड़ितों के अधिकारों और हितों की रक्षा करना, या अपराधियों को उनके कार्यों के लिए जवाबदेह ठहराना . सरकारें गैर-सहमति वाली पोर्नोग्राफी, मानहानि, या चुनाव हस्तक्षेप जैसी हानिकारक डीपफेक सामग्री के निर्माण और प्रसार को प्रतिबंधित या प्रतिबंधित करने वाले कानून और नियम बना सकती हैं। वे डीपफेक का पता लगाने और सत्यापन तकनीकों के अनुसंधान और विकास के साथ-साथ सार्वजनिक शिक्षा और जागरूकता अभियानों का भी समर्थन कर सकते हैं।

    कुछ कानून विभिन्न देशों में डीपफेक तकनीक को संबोधित करते हैं, लेकिन वे बहुत व्यापक या सुसंगत नहीं हैं।


    उदाहरण के लिए:

    डीपफेक की संदिग्धता से लड़ने के लिए कानूनी प्रतिक्रियाएं एक प्रभावी रणनीति हो सकती हैं। हालाँकि, इन समाधानों को मुक्त भाषण और गोपनीयता अधिकारों को संतुलित करने, सीमा पार अधिकार क्षेत्र को लागू करने और तेजी से बदलती प्रौद्योगिकी के अनुकूल होने जैसी चुनौतियों का सामना करना पड़ सकता है।


डीपफेक टेक्नोलॉजी पर फ्यूचर रिसर्च या एक्शन के लिए सिफारिशें और दिशा-निर्देश

डीपफेक तकनीक अभी भी बढ़ रही है और हर दिन बेहतर और अधिक यथार्थवादी संस्करणों के लिए तेजी से विकसित हो रही है। यह इस तकनीक के साथ आने वाले खतरे से निपटने के लिए और अधिक सक्रिय होने की मांग करता है। नीचे कुछ ऐसी कार्रवाइयाँ हैं जिनके बारे में मेरा मानना है कि इसके नकारात्मक प्रभाव को कम करने के लिए लागू किया जा सकता है:


  • सामग्री का सत्यापन और प्रमाणीकरण: उपभोक्ताओं को हमेशा रिवर्स इमेज या वीडियो खोज, ब्लॉकचैन-आधारित सत्यापन प्रणाली, या डिजिटल वॉटरमार्किंग तकनीकों का उपयोग करके सामग्री के स्रोत और प्रामाणिकता की जांच करनी चाहिए।


  • सूचना के एकाधिक और विश्वसनीय स्रोत: डिजिटल मीडिया के उपभोक्ताओं को हमेशा प्रतिष्ठित मीडिया आउटलेट्स, फैक्ट-चेकर्स, या विशेषज्ञों से परामर्श करके उनके सामने आने वाली या बनाई गई सामग्री की पुष्टि या खंडन करने के लिए सूचना के कई और विश्वसनीय स्रोतों की तलाश करनी चाहिए।


  • सत्यापन और एट्रिब्यूशन के लिए रैपिड, मजबूत और अनुकूली डिटेक्शन एल्गोरिदम और टूल्स का विकास: अधिक मजबूत और अनुकूली डिटेक्शन एल्गोरिदम विकसित करने पर अधिक ध्यान दिया जाना चाहिए जो मल्टीमॉडल या क्रॉस-का उपयोग करके डीपफेक सामग्री की बढ़ती वास्तविकता और विविधता से निपट सके। डोमेन दृष्टिकोण, मानव प्रतिक्रिया को शामिल करना, या प्रतिकूल शिक्षा का लाभ उठाना। डिजिटल सामग्री के सत्यापन और एट्रिब्यूशन के लिए नए टूल और तरीकों की खोज की जानी चाहिए, जैसे ब्लॉकचैन-आधारित सत्यापन प्रणाली, डिजिटल वॉटरमार्किंग तकनीक, या रिवर्स इमेज या वीडियो सर्च का उपयोग करके और डीपफेक डिटेक्शन और सत्यापन तकनीकों को विकसित करने और सुधारने के लिए और अधिक शोध की आवश्यकता है। साथ ही डीपफेक तकनीक के सामाजिक और नैतिक निहितार्थों को समझने और संबोधित करने के लिए।


  • डीपफेक टेक्नोलॉजी के लिए नैतिक और कानूनी ढांचे और मानकों की स्थापना: डीपफेक तकनीक के लिए नैतिक और कानूनी ढांचे और मानकों को बनाने के लिए और अधिक शोध किया जाना चाहिए, जैसे डीपफेक सामग्री के रचनाकारों और उपभोक्ताओं के अधिकारों और जिम्मेदारियों को परिभाषित करना, सीमाएं निर्धारित करना और डीपफेक तकनीक के वैध और अवैध उपयोग के लिए मानदंड, या पीड़ितों की सुरक्षा के लिए कानूनों और विनियमों को लागू करना और डीपफेक दुरुपयोग के अपराधियों को दंडित करना। गैर-सहमति वाली पोर्नोग्राफी, मानहानि, या चुनाव हस्तक्षेप जैसे हानिकारक डीपफेक सामग्री के पीड़ितों के अधिकारों और हितों की रक्षा करने वाले कानूनों और विनियमों को लागू करने और लागू करने के लिए अधिक कानूनी कार्रवाई की आवश्यकता है।


    डीपफेक सामग्री की सीमा-पार प्रकृति और डीपफेक तकनीक की तेजी से बदलती प्रकृति को ध्यान में रखते हुए कार्रवाई समन्वित, सुसंगत और अनुकूलनीय होनी चाहिए, और मुक्त भाषण और गोपनीयता अधिकारों को ध्यान में रखते हुए संतुलित, आनुपातिक और सम्मानजनक होनी चाहिए डीपफेक सामग्री के रचनाकारों और उपभोक्ताओं की।


  • डीपफेक टेक्नोलॉजी के बारे में शिक्षा और जागरूकता को बढ़ावा देना: डीपफेक टेक्नोलॉजी पर भविष्य के शोध या कार्रवाई से विभिन्न हितधारकों के बीच डीपफेक तकनीक के बारे में शिक्षा और जागरूकता को बढ़ावा देना चाहिए, जैसे पत्रकारों, तथ्य-जांचकर्ताओं, शिक्षकों, नीति निर्माताओं और आम जनता के लिए प्रशिक्षण और मार्गदर्शन प्रदान करना। जिम्मेदारी से और गंभीर रूप से डीपफेक सामग्री कैसे बनाएं, उपभोग करें और उसका जवाब कैसे दें।


  • संदिग्ध या हानिकारक सामग्री की रिपोर्ट या फ्लैग करें: उपभोक्ताओं को डीपफेक सामग्री के अस्तित्व और प्रसार के बारे में पता होना चाहिए और इसे पहचानने और सत्यापित करने के लिए महत्वपूर्ण सोच और मीडिया साक्षरता कौशल का उपयोग करना चाहिए। उन्हें सोशल मीडिया प्लेटफॉर्म, कानून प्रवर्तन एजेंसियों, या नागरिक समाज संगठनों द्वारा प्रदान किए गए रिपोर्टिंग टूल या तंत्र का उपयोग करके सोशल मीडिया या अन्य प्लेटफॉर्म पर मिलने वाली डीपफेक सामग्री की रिपोर्ट करने या फ़्लैग करने में तेज़ होना चाहिए।


  • दूसरों के अधिकारों और हितों का सम्मान करें: डिजिटल मीडिया के निर्माताओं को सहमति प्राप्त करके, डीपफेक तकनीक के उपयोग का खुलासा करके, या दुर्भावनापूर्ण या भ्रामक उद्देश्यों से बचने के लिए डीपफेक तकनीक से संबंधित सामग्री बनाते या साझा करते समय हमेशा दूसरों के अधिकारों और हितों का सम्मान करना चाहिए। उन्हें डीपफेक तकनीक के संभावित नुकसान और लाभों के बारे में पता होना चाहिए और सहमति, अखंडता और जवाबदेही के सिद्धांतों का पालन करते हुए जिम्मेदारी और नैतिक रूप से इसका उपयोग करना चाहिए।


निष्कर्ष

डीपफेक तकनीक में झूठी या भ्रामक सामग्री बनाने की क्षमता होती है जो व्यक्तियों या समूहों को विभिन्न तरीकों से नुकसान पहुंचा सकती है। हालांकि, डीपफेक तकनीक का मनोरंजन, मीडिया, राजनीति, शिक्षा, कला, स्वास्थ्य सेवा और पहुंच के लिए भी सकारात्मक उपयोग हो सकता है। इसलिए, डीपफेक तकनीक के जोखिमों और लाभों को संतुलित करना और इसका पता लगाने, रोकने और विनियमित करने के लिए प्रभावी और नैतिक तरीके विकसित करना महत्वपूर्ण है।


इस लक्ष्य को प्राप्त करने के लिए, सरकारों, प्लेटफार्मों, शोधकर्ताओं और उपयोगकर्ताओं को अपने प्रयासों में सहयोग और समन्वय करने के साथ-साथ अपनी जागरूकता और जिम्मेदारी बढ़ाने की आवश्यकता है। ऐसा करके, हम डीपफेक तकनीक की शक्ति और संभावित लाभों का उपयोग कर सकते हैं, जबकि इसके नुकसान को कम कर सकते हैं।