अप्रैल 2020 में बेल्जियम की प्रधानमंत्री सोफी विल्मेस का एक वीडियो दे रहा है
हालांकि, वीडियो असली नहीं था। यह एक गहरा नकली था, जिसे एक्सटिंक्शन रिबेलियन बेल्जियम द्वारा एआई तकनीक का उपयोग करके उत्पन्न किया गया था जो किसी के भी चेहरे के भाव और आवाज में हेरफेर कर सकता है। वीडियो को एक गहरा नकली करार दिया गया था, लेकिन कई लोगों ने इस पर ध्यान नहीं दिया या अस्वीकरण को अनदेखा कर दिया। कुछ दर्शक नकली भाषण से भ्रमित और आक्रोशित थे, जबकि अन्य ने प्रधानमंत्री के साहस और दूरदर्शिता की प्रशंसा की।
इस उदाहरण से पता चलता है कि गलत सूचना फैलाने और महत्वपूर्ण सार्वजनिक हस्तियों का प्रतिरूपण करके जनमत को प्रभावित करने के लिए कितनी गहरी नकली तकनीक का उपयोग किया जा सकता है। इससे यह भी पता चलता है कि नकली नकली का पता लगाना और उसे सत्यापित करना कितना मुश्किल हो सकता है, खासकर जब उन्हें सीमित मॉडरेशन और तथ्य-जांच क्षमताओं वाले सोशल मीडिया प्लेटफॉर्म पर साझा किया जाता है।
कल्पना कीजिए कि आप अपने पसंदीदा सेलिब्रिटी का भाषण देते हुए एक वीडियो देख रहे हैं। आप उनकी वाक्पटुता और करिश्मे से प्रभावित हैं, और आप उनके संदेश से सहमत हैं। लेकिन बाद में पता चलता है कि वीडियो असली नहीं था। यह एआई द्वारा बनाया गया एक गहरा नकली, सिंथेटिक मीडिया था जो किसी की उपस्थिति और आवाज में हेरफेर कर सकता है। आप ठगा हुआ और भ्रमित महसूस करते हैं।
आप ऑनलाइन जो देखते और सुनते हैं उस पर आप कैसे भरोसा कर सकते हैं?
यह अब एक काल्पनिक परिदृश्य नहीं है; यह अब वास्तविक है। प्रमुख अभिनेताओं, मशहूर हस्तियों, राजनेताओं और प्रभावशाली लोगों के कई डीपफेक इंटरनेट पर प्रसारित हो रहे हैं। कुछ में टिकटॉक पर टॉम क्रूज और कीनू रीव्स के डीपफेक शामिल हैं।
सरल शब्दों में, डीपफेक एआई-जनित वीडियो और छवियां हैं जो लोगों, घटनाओं और वस्तुओं की वास्तविकता को बदल या गढ़ सकते हैं। यह तकनीक एक प्रकार की कृत्रिम बुद्धिमत्ता है जो छवियों, वीडियो और ऑडियो को बना सकती है या उनमें हेरफेर कर सकती है जो वास्तविक दिखते और ध्वनि करते हैं लेकिन प्रामाणिक नहीं हैं।
डीपफेक तकनीक हर दिन अधिक परिष्कृत और सुलभ होती जा रही है। इसका उपयोग मनोरंजन, शिक्षा, अनुसंधान या कला जैसे विभिन्न उद्देश्यों के लिए किया जा सकता है। हालांकि, यह व्यक्तियों और समाज के लिए गंभीर जोखिम भी पैदा कर सकता है, जैसे गलत सूचना फैलाना, गोपनीयता का उल्लंघन करना, प्रतिष्ठा को नुकसान पहुंचाना, पहचान का प्रतिरूपण करना और जनमत को प्रभावित करना।
अपने पिछले लेख में, मैंने डीपफेक टेक्नोलॉजी, यह कैसे काम करती है, और इसके सकारात्मक और नकारात्मक प्रभावों पर चर्चा की। इस लेख में, मैं गहरी नकली तकनीक के खतरों की खोज करूँगा और हम इसके संभावित नुकसान से खुद को कैसे बचा सकते हैं।
मैं एकबार
इस ज्ञान से पहले, मुझे अपने अब तक के सबसे सम्मानित अभिनेताओं में से एक को सुनना अच्छा लगा, केवल अंत में थोड़ा निराश होने के लिए कि मैंने वास्तव में एआई सिमुलेशन की बात सुनी थी। इस दर पर, क्या होगा यदि कई वीडियो जो हम देखते हैं वे केवल डीपफेक हैं? वास्तविकता के लिए खतरा अधिक से अधिक खतरनाक होता जा रहा है।
डीपफेक तकनीक के कुछ सकारात्मक पहलू हो सकते हैं, लेकिन हमारे बढ़ते समाज में नकारात्मकता आसानी से सकारात्मकता पर हावी हो जाती है। डीपफेक के कुछ नकारात्मक उपयोगों में शामिल हैं:
डीपफेक का उपयोग नकली वयस्क सामग्री बनाने के लिए किया जा सकता है जिसमें मशहूर हस्तियों या नियमित लोगों की सहमति के बिना उनकी गोपनीयता और गरिमा का उल्लंघन किया जाता है। क्योंकि एक वीडियो में एक चेहरे को दूसरे से बदलना और एक आवाज को बदलना बहुत आसान हो गया है। हैरानी की बात है, लेकिन सच है। की इस थ्रिलर को देखें, जिसमें टॉम हॉलैंड की जगह पहले स्पाइडरमैन टोबी मगुइरे का डीपफेक दिखाया गया है। जब तक आपको बताया नहीं जाएगा तब तक आप कभी भी अंतर नहीं खोज पाएंगे। यदि यह इतना ही आसान है, तो कोई भी वीडियो परिवर्तन संभव है।
डीपफेक का उपयोग गलत सूचना और नकली समाचार फैलाने के लिए किया जा सकता है जो जनता को धोखा दे सकता है या हेरफेर कर सकता है। डीपफेक का उपयोग झूठी सामग्री बनाने के लिए किया जा सकता है, जैसे कि नकली भाषण, साक्षात्कार, या घटनाएं, जिनमें राजनेता, मशहूर हस्तियां या अन्य प्रभावशाली हस्तियां शामिल हों।
जैसा कि मैंने लेख की शुरुआत में उल्लेख किया था, एक डीपफेक बेल्जियम की प्रधान मंत्री सोफी विल्मेस भाषण दे रही है, असली सोफी विल्मेस ने कभी भाषण नहीं दिया। एक अन्य केस स्टडी है।
चूंकि डीपफेक तकनीक से चेहरे की अदला-बदली और आवाज में बदलाव किया जा सकता है, इसलिए इसका इस्तेमाल जनता की राय को प्रभावित करने, हिंसा भड़काने या चुनावों को बाधित करने के लिए लोकतंत्र और सामाजिक स्थिरता को कमजोर करने के लिए किया जा सकता है।
झूठा प्रचार किया जा सकता है, नकली आवाज संदेश और वीडियो जो बताना बहुत मुश्किल है, असत्य हैं और जनता की राय को प्रभावित करने के लिए इस्तेमाल किया जा सकता है, बदनामी का कारण बन सकता है, या राजनीतिक उम्मीदवारों, पार्टियों या नेताओं को ब्लैकमेल कर सकता है।
डीपफेक का इस्तेमाल व्यक्तियों, संगठनों, या ब्रांडों को प्रतिरूपण या बदनाम करके प्रतिष्ठा और विश्वसनीयता को नुकसान पहुंचाने के लिए किया जा सकता है। कल्पना करें कि टिकटॉक पर कीनू रीव्स का डीपफेक नकली समीक्षा, प्रशंसापत्र, या ग्राहकों, कर्मचारियों या प्रतिस्पर्धियों को शामिल करने वाले विज्ञापनों को बनाने में सक्षम है।
जो लोग नहीं जानते हैं, उनके लिए राजी करना आसान होता है और ऐसी स्थिति में जहां कुछ गलत हो जाता है, इससे प्रतिष्ठा को नुकसान हो सकता है और अभिनेता में विश्वास की हानि हो सकती है।
डीपफेक का उपयोग पहचान की चोरी, धोखाधड़ी या साइबर हमलों को सक्षम करके सुरक्षा जोखिम पैदा करने के लिए किया जा सकता है। 2019 में, यूके स्थित एक ऊर्जा कंपनी के सीईओ को उनके बॉस का फोन आया, जो कंपनी की जर्मन मूल कंपनी के प्रमुख थे, उन्होंने हंगरी में एक आपूर्तिकर्ता को € 220,000 के हस्तांतरण का आदेश दिया। समाचार सूत्रों के अनुसार, सीईओ ने अपने प्रमुख की आवाज के "मामूली जर्मन लहजे और माधुर्य" को स्वीकार किया और एक घंटे के भीतर धन भेजने के निर्देश का अनुपालन किया।
हालांकि, कॉलर ने फिर से एक और तार के लिए कॉल किया था और फिर यह संदिग्ध हो गया और बाद में धोखाधड़ी होने की पुष्टि हुई। अफसोस की बात है कि यह उनके बॉस की आवाज का केवल एक डीपफेक था और शुरुआती €220,000 को मेक्सिको में स्थानांतरित कर दिया गया था और अन्य खातों में भेज दिया गया था।
लेकिन डीपफेक फ्रॉड की यह अकेली घटना नहीं है। फ़िशिंग स्कैम, सोशल इंजीनियरिंग, या व्यक्तिगत या वित्तीय जानकारी से जुड़े अन्य स्कैम बनाने के लिए कई स्थितियों में डीपफेक तकनीक का उपयोग किया गया है।
नैतिक निहितार्थ
डीपफेक तकनीक उन लोगों के नैतिक अधिकारों और गरिमा का उल्लंघन कर सकती है जिनकी छवियों या आवाजों का उनकी सहमति के बिना उपयोग किया जाता है, जैसे कि नकली अश्लील सामग्री बनाना, बदनामी वाली सामग्री बनाना, या मशहूर हस्तियों या नियमित लोगों की पहचान की चोरी करना। डीपफेक तकनीक भी समाज में सच्चाई, विश्वास और जवाबदेही के मूल्यों को कमजोर कर सकती है, जब इसका उपयोग गलत सूचना, फर्जी समाचार, या प्रचार प्रसार के लिए किया जाता है जो जनता को धोखा दे सकता है या हेरफेर कर सकता है।
कानूनी निहितार्थ
डीपफेक तकनीक मौजूदा कानूनी ढांचे और नियमों को चुनौती दे सकती है जो बौद्धिक संपदा अधिकारों, मानहानि के अधिकारों और अनुबंध अधिकारों की रक्षा करते हैं, क्योंकि यह उन लोगों के कॉपीराइट, ट्रेडमार्क या प्रचार अधिकारों का उल्लंघन कर सकता है जिनकी छवियों या आवाजों का उनकी अनुमति के बिना उपयोग किया जाता है। .
डीपफेक तकनीक उन लोगों के निजता अधिकारों का उल्लंघन कर सकती है जिनके निजी डेटा का इस्तेमाल उनकी सहमति के बिना किया जाता है। यह उन लोगों की प्रतिष्ठा या चरित्र को बदनाम कर सकता है जिन्हें गलत तरीके से नकारात्मक या हानिकारक तरीके से चित्रित किया गया है।
सामाजिक निहितार्थ
डीपफेक तकनीक का व्यक्तियों और समूहों के सामाजिक कल्याण और सामंजस्य पर नकारात्मक प्रभाव पड़ सकता है, क्योंकि यह डीपफेक हेरफेर के पीड़ितों को मनोवैज्ञानिक, भावनात्मक या वित्तीय नुकसान पहुंचा सकती है, जो संकट, चिंता, अवसाद या नुकसान से पीड़ित हो सकते हैं। आय।
यह विभिन्न समूहों या समुदायों के बीच सामाजिक विभाजन और संघर्ष भी पैदा कर सकता है, हिंसा, घृणा, या उनकी जाति, लिंग, धर्म या राजनीतिक संबद्धता के आधार पर कुछ समूहों के खिलाफ भेदभाव को उकसाता है।
मुझे डर है कि अगर नियंत्रित नहीं किया गया तो भविष्य में डीपफेक तकनीक का इस्तेमाल दुष्प्रचार और प्रचार के अधिक परिष्कृत और दुर्भावनापूर्ण रूपों को बनाने के लिए किया जा सकता है। इसका उपयोग राजनीतिक विरोधियों या कार्यकर्ताओं से जुड़े अपराधों, घोटालों, या भ्रष्टाचार के नकली सबूत बनाने या ग्राहकों, कर्मचारियों या प्रतिस्पर्धियों से जुड़े नकली प्रशंसापत्र, समर्थन या समीक्षा बनाने के लिए भी किया जा सकता है।
विश्व नेताओं के युद्ध की घोषणा करने, झूठी स्वीकारोक्ति करने, या चरमपंथी विचारधाराओं का समर्थन करने के डीपफेक वीडियो होने की कल्पना करें। यह बड़े पैमाने पर दुनिया के लिए बहुत हानिकारक हो सकता है।
डीपफेक का पता लगाने और नियमन की वर्तमान स्थिति अभी भी विकसित हो रही है और कई चुनौतियों का सामना कर रही है। डीपफेक सामग्री की पहचान करना और उसे ऑनलाइन फैलने से रोकना मुश्किल होने के कुछ कारण हैं:
इसके अलावा, डीपफेक नियमन के प्रवर्तन और निगरानी को व्यावहारिक और तकनीकी कठिनाइयों का सामना करना पड़ सकता है, जैसे कि डीपफेक सामग्री के रचनाकारों और वितरकों की पहचान करना, उनकी देयता और जवाबदेही स्थापित करना और उचित प्रतिबंध या उपाय लागू करना।
सोशल मीडिया प्लेटफॉर्म की नीतियां: हानिकारक या भ्रामक डीपफेक पर प्रतिबंध लगाने या लेबल लगाने या उपयोगकर्ताओं को डीपफेक तकनीक के उपयोग का खुलासा करने की आवश्यकता के द्वारा सोशल मीडिया प्लेटफॉर्म अपने प्लेटफॉर्म पर डीपफेक सामग्री के निर्माण और प्रसार को विनियमित करने के लिए नीतियों, दिशानिर्देशों और मानकों को लागू कर सकते हैं। . यह रणनीति फ़ेसबुक, ट्विटर, या यूट्यूब जैसे लोकप्रिय और प्रभावशाली प्लेटफार्मों पर हानिकारक या भ्रामक डीपफेक के जोखिम और प्रसार को कम करने में प्रभावी हो सकती है। डीपफेक का पता लगाने और सत्यापन उपकरण, जैसे कि डिजिटल वॉटरमार्क, ब्लॉकचैन-आधारित उद्गम प्रणाली, या रिवर्स इमेज सर्च इंजन भी किसी भी डीपफेक के अपलोड के खिलाफ मार्गदर्शन के लिए तैनात किए जा सकते हैं। ये प्लेटफॉर्म डीपफेक सामग्री की निगरानी और मुकाबला करने के लिए अन्य हितधारकों, जैसे तथ्य-जांचकर्ता, शोधकर्ताओं, या नागरिक समाज समूहों के साथ भी सहयोग कर सकते हैं। हालाँकि, इन समाधानों को मापनीयता, सटीकता, पारदर्शिता और जवाबदेही जैसी चुनौतियों का सामना करना पड़ सकता है।
डिटेक्शन एल्गोरिदम: डिटेक्शन एल्गोरिदम मशीन लर्निंग और कंप्यूटर विज़न तकनीकों का उपयोग डीपफेक सामग्री की विशेषताओं और विशेषताओं का विश्लेषण करने के लिए कर सकते हैं, जैसे कि चेहरे के भाव, आंखों की गति, प्रकाश या ऑडियो गुणवत्ता, और हेरफेर का संकेत देने वाली विसंगतियों या विसंगतियों की पहचान करना। शोधकर्ता पहचान एल्गोरिदम को बेहतर बनाने के लिए कृत्रिम तंत्रिका नेटवर्क, कंप्यूटर दृष्टि एल्गोरिदम, या बायोमेट्रिक प्रमाणीकरण प्रणाली जैसे डीपफेक पहचान और सत्यापन तकनीकों को विकसित और सुधार सकते हैं।
वे डीपफेक का पता लगाने और सत्यापन विधियों के मूल्यांकन के लिए डेटासेट और बेंचमार्क भी बना सकते हैं और साझा कर सकते हैं, और डीपफेक तकनीक के सामाजिक और नैतिक प्रभावों पर अंतःविषय अध्ययन कर सकते हैं। यह रणनीति हेरफेर का संकेत देने वाली विसंगतियों या विसंगतियों की पहचान करके सुविधाओं के विश्लेषण में प्रभावी हो सकती है। हालाँकि, इन समाधानों को डेटा उपलब्धता, गुणवत्ता और गोपनीयता के साथ-साथ नैतिक दुविधाओं और दोहरे उपयोग के जोखिम जैसी चुनौतियों का सामना करना पड़ सकता है।
इंटरनेट प्रतिक्रिया: यह डीपफेक सामग्री के लिए ऑनलाइन उपयोगकर्ताओं और समुदायों की सामूहिक प्रतिक्रिया को संदर्भित करता है, जैसे संदिग्ध या हानिकारक डीपफेक को फ़्लैग करना, रिपोर्ट करना, डीबंक करना या उसकी आलोचना करना, या उन्हें बेनकाब करने या उपहास करने के लिए प्रति-कथा या पैरोडी बनाना। उपयोगकर्ता डीपफेक सामग्री की पहचान और सत्यापन करने के लिए महत्वपूर्ण सोच और मीडिया साक्षरता कौशल को अपना सकते हैं, और डीपफेक का पता लगाने और सत्यापन टूल का उपयोग भी कर सकते हैं, जैसे कि ब्राउज़र एक्सटेंशन, मोबाइल ऐप या ऑनलाइन प्लेटफ़ॉर्म, सोशल मीडिया या अन्य प्लेटफ़ॉर्म पर मिलने वाले डीपफ़ेक को सूंघने के लिए। जिसे वे डीपफेक सामग्री के रूप में रिपोर्ट या फ़्लैग कर सकते हैं। डीपफेक सामग्री के लिए ऑनलाइन उपयोगकर्ताओं और समुदायों की सामूहिक प्रतिक्रिया को संगठित करने में इंटरनेट प्रतिक्रिया रणनीति प्रभावी हो सकती है। हालाँकि, इन समाधानों को संज्ञानात्मक पक्षपात, सूचना अधिभार, डिजिटल विभाजन और विश्वास के मुद्दों जैसी चुनौतियों का सामना करना पड़ सकता है।
DARPA की पहल: DARPA की पहल डीपफेक का पता लगाने और शमन प्रौद्योगिकियों के विकास को आगे बढ़ाने के लिए डिफेंस एडवांस्ड रिसर्च प्रोजेक्ट्स एजेंसी (DARPA) द्वारा वित्त पोषित अनुसंधान और विकास परियोजनाओं को संदर्भित करती है, जैसे कि बड़े पैमाने पर डेटासेट, बेंचमार्क और डीपफेक अनुसंधान के लिए चुनौतियां बनाना . उनका उद्देश्य ऐसी तकनीकों को विकसित करना है जो स्वचालित रूप से डीपफेक और मीडिया हेरफेर के अन्य रूपों का पता लगा सकें और उनका विश्लेषण कर सकें। DARPA के दो कार्यक्रम हैं जो डीपफेक का पता लगाने के लिए समर्पित हैं: Media Forensics (MediFor) और Semantic Forensics (SemaFor)।
Media Forensics (MediFor) , जो FY2021 में संपन्न हुआ, फ़ोटो और वीडियो की अखंडता का स्वचालित रूप से आकलन करने के लिए एल्गोरिदम विकसित करना था और विश्लेषकों को यह जानकारी प्रदान करना था कि नकली सामग्री कैसे उत्पन्न की गई थी। कथित तौर पर कार्यक्रम ने डीपफेक में मौजूद ऑडियो-विजुअल विसंगतियों की पहचान करने के लिए तकनीकों की खोज की, जैसे कि पिक्सेल में विसंगतियां (डिजिटल अखंडता), भौतिकी के नियमों के साथ असंगतता (भौतिक अखंडता), और अन्य सूचना स्रोतों (सिमेंटिक अखंडता) के साथ विसंगतियां। मेडीफॉर प्रौद्योगिकियों से ऑपरेशनल कमांड और खुफिया समुदाय में संक्रमण की उम्मीद है।
सिमेंटिक फ़ोरेंसिक्स (सेमाफ़ोर) , जिसकी घोषणा 2021 में की गई थी, विश्लेषकों को डिटेक्टर्स और मैनिपुलेटर्स के बीच लड़ाई में ऊपरी हाथ देने की कोशिश करता है, जो ऐसी तकनीकों का विकास कर रहा है जो नकली मीडिया संपत्तियों का पता लगाने, एट्रिब्यूशन और लक्षण वर्णन को स्वचालित करने में सक्षम हैं। कार्यक्रम का उद्देश्य स्वचालित मीडिया जेनरेटर में एक महत्वपूर्ण कमजोरी का फायदा उठाना है: सभी शब्दार्थों को सही करने में कठिनाई। उदाहरण के लिए, यह सुनिश्चित करना कि सब कुछ एक समाचार कहानी के पाठ से साथ वाली छवि से, छवि के भीतर के तत्वों से संरेखित हो। SemaFor पहचान, एट्रिब्यूशन और लक्षण वर्णन एल्गोरिदम द्वारा प्रदान किए गए सबूतों को स्वचालित रूप से इकट्ठा करने और क्यूरेट करने के लिए प्रौद्योगिकियों का विकास भी कर रहा है।
इसके अलावा, DARPA ने लोगों के सिर और चेहरे की मांसपेशियों को कैसे हिलाया जाता है, इसका दस्तावेजीकरण करने के लिए डीपफेक रक्षात्मक मॉडल बनाए। एजेंसी ने इस डेटा का उपयोग किया और इसे "हाई-प्रोफाइल व्यक्तियों" के वीडियो का विश्लेषण करने और वास्तविक व्यक्ति के साथ व्यवहार की तुलना करने के लिए एक सॉफ्टवेयर टूल में एकीकृत किया।
कानूनी प्रतिक्रिया: यह डीपफेक तकनीक द्वारा उठाए गए कानूनी और नैतिक मुद्दों को संबोधित करने के लिए मौजूदा या नए कानूनों और विनियमों का अनुप्रयोग है, जैसे कि डीपफेक दुरुपयोग के पीड़ितों के अधिकारों और हितों की रक्षा करना, या अपराधियों को उनके कार्यों के लिए जवाबदेह ठहराना . सरकारें गैर-सहमति वाली पोर्नोग्राफी, मानहानि, या चुनाव हस्तक्षेप जैसी हानिकारक डीपफेक सामग्री के निर्माण और प्रसार को प्रतिबंधित या प्रतिबंधित करने वाले कानून और नियम बना सकती हैं। वे डीपफेक का पता लगाने और सत्यापन तकनीकों के अनुसंधान और विकास के साथ-साथ सार्वजनिक शिक्षा और जागरूकता अभियानों का भी समर्थन कर सकते हैं।
कुछ कानून विभिन्न देशों में डीपफेक तकनीक को संबोधित करते हैं, लेकिन वे बहुत व्यापक या सुसंगत नहीं हैं।
उदाहरण के लिए:
अमेरिका में, राष्ट्रीय रक्षा प्राधिकरण अधिनियम (एनडीएए) के लिए डिपार्टमेंट ऑफ होमलैंड सिक्योरिटी (डीएचएस) को डीपफेक और उनके संभावित नुकसान पर एक वार्षिक रिपोर्ट जारी करने की आवश्यकता है। जनरेटिव एडवर्सेरियल नेटवर्क एक्ट के पहचान आउटपुट के लिए डीपफेक तकनीक और प्रामाणिकता उपायों पर शोध करने के लिए नेशनल साइंस फाउंडेशन (NSC) और नेशनल इंस्टीट्यूट ऑफ स्टैंडर्ड्स (NIS) और टेक्नोलॉजी की आवश्यकता होती है। हालांकि, ऐसा कोई संघीय कानून नहीं है जो डीपफेक तकनीक को स्पष्ट रूप से प्रतिबंधित या नियंत्रित करता हो।
चीन में , एक नए कानून की आवश्यकता है कि हेरफेर की गई सामग्री में विषय की सहमति हो और डिजिटल हस्ताक्षर या वॉटरमार्क हों और यह कि डीपफेक सेवा प्रदाता "अफवाहों का खंडन" करने के तरीके पेश करते हैं। हालांकि, कुछ लोगों को चिंता है कि सरकार अभिव्यक्ति की स्वतंत्रता को कम करने के लिए कानून का इस्तेमाल कर सकती है या असहमति के स्वरों को सेंसर कर सकती है।
भारत में, डीपफेक पर प्रतिबंध लगाने के लिए कोई स्पष्ट कानून नहीं है, लेकिन कुछ मौजूदा कानून जैसे कि सूचना प्रौद्योगिकी अधिनियम या भारतीय दंड संहिता डीपफेक से जुड़े मानहानि, धोखाधड़ी या अश्लीलता के मामलों में लागू हो सकते हैं।
यूके में, डीपफेक पर कोई विशिष्ट कानून नहीं है, लेकिन कुछ कानूनी सिद्धांत जैसे कि गोपनीयता, डेटा संरक्षण, बौद्धिक संपदा, या पासिंग ऑफ किसी अवांछित डीपफेक या हेरफेर किए गए वीडियो से संबंधित विवादों में प्रासंगिक हो सकते हैं।
डीपफेक की संदिग्धता से लड़ने के लिए कानूनी प्रतिक्रियाएं एक प्रभावी रणनीति हो सकती हैं। हालाँकि, इन समाधानों को मुक्त भाषण और गोपनीयता अधिकारों को संतुलित करने, सीमा पार अधिकार क्षेत्र को लागू करने और तेजी से बदलती प्रौद्योगिकी के अनुकूल होने जैसी चुनौतियों का सामना करना पड़ सकता है।
डीपफेक तकनीक अभी भी बढ़ रही है और हर दिन बेहतर और अधिक यथार्थवादी संस्करणों के लिए तेजी से विकसित हो रही है। यह इस तकनीक के साथ आने वाले खतरे से निपटने के लिए और अधिक सक्रिय होने की मांग करता है। नीचे कुछ ऐसी कार्रवाइयाँ हैं जिनके बारे में मेरा मानना है कि इसके नकारात्मक प्रभाव को कम करने के लिए लागू किया जा सकता है:
डीपफेक टेक्नोलॉजी के लिए नैतिक और कानूनी ढांचे और मानकों की स्थापना: डीपफेक तकनीक के लिए नैतिक और कानूनी ढांचे और मानकों को बनाने के लिए और अधिक शोध किया जाना चाहिए, जैसे डीपफेक सामग्री के रचनाकारों और उपभोक्ताओं के अधिकारों और जिम्मेदारियों को परिभाषित करना, सीमाएं निर्धारित करना और डीपफेक तकनीक के वैध और अवैध उपयोग के लिए मानदंड, या पीड़ितों की सुरक्षा के लिए कानूनों और विनियमों को लागू करना और डीपफेक दुरुपयोग के अपराधियों को दंडित करना। गैर-सहमति वाली पोर्नोग्राफी, मानहानि, या चुनाव हस्तक्षेप जैसे हानिकारक डीपफेक सामग्री के पीड़ितों के अधिकारों और हितों की रक्षा करने वाले कानूनों और विनियमों को लागू करने और लागू करने के लिए अधिक कानूनी कार्रवाई की आवश्यकता है।
डीपफेक सामग्री की सीमा-पार प्रकृति और डीपफेक तकनीक की तेजी से बदलती प्रकृति को ध्यान में रखते हुए कार्रवाई समन्वित, सुसंगत और अनुकूलनीय होनी चाहिए, और मुक्त भाषण और गोपनीयता अधिकारों को ध्यान में रखते हुए संतुलित, आनुपातिक और सम्मानजनक होनी चाहिए डीपफेक सामग्री के रचनाकारों और उपभोक्ताओं की।
डीपफेक तकनीक में झूठी या भ्रामक सामग्री बनाने की क्षमता होती है जो व्यक्तियों या समूहों को विभिन्न तरीकों से नुकसान पहुंचा सकती है। हालांकि, डीपफेक तकनीक का मनोरंजन, मीडिया, राजनीति, शिक्षा, कला, स्वास्थ्य सेवा और पहुंच के लिए भी सकारात्मक उपयोग हो सकता है। इसलिए, डीपफेक तकनीक के जोखिमों और लाभों को संतुलित करना और इसका पता लगाने, रोकने और विनियमित करने के लिए प्रभावी और नैतिक तरीके विकसित करना महत्वपूर्ण है।
इस लक्ष्य को प्राप्त करने के लिए, सरकारों, प्लेटफार्मों, शोधकर्ताओं और उपयोगकर्ताओं को अपने प्रयासों में सहयोग और समन्वय करने के साथ-साथ अपनी जागरूकता और जिम्मेदारी बढ़ाने की आवश्यकता है। ऐसा करके, हम डीपफेक तकनीक की शक्ति और संभावित लाभों का उपयोग कर सकते हैं, जबकि इसके नुकसान को कम कर सकते हैं।