आप सभी ने इस तरह की अद्भुत दिखने वाली छवियां देखी हैं, जो पूरी तरह से एक कृत्रिम बुद्धिमत्ता मॉडल द्वारा बनाई गई हैं। मैंने अपने चैनल पर कई दृष्टिकोणों को कवर किया, जैसे कि क्रेयॉन, इमेजेन, और सबसे प्रसिद्ध, दल-ई 2। अधिकांश लोग उन्हें आज़माना चाहते हैं और यादृच्छिक संकेतों से चित्र बनाना चाहते हैं, लेकिन इनमें से अधिकांश मॉडल ओपन-सोर्स नहीं हैं, जिसका अर्थ है कि हम, हमारे जैसे नियमित लोग, उनका स्वतंत्र रूप से उपयोग नहीं कर सकते। क्यों? इस वीडियो में हम यही जानेंगे... संदर्भ ►पूरा लेख पढ़ें: ►OpenAI का लेख: डेल 2 वीडियो: क्रेयों का वीडियो: क्रेयॉन का उपयोग करें: ►माई डेली न्यूजलेटर: https://www.louisbouchard.ai/how-openai-reduces-risks-for-dall-e-2/ https://openai.com/blog/dall-e-2-pre-training-mitigations/ https://youtu.be/rdGVbPI42sA https://youtu.be/qOxde_JV0vI https://www.craiyon.com/ https://www.getrevue.co/profile/whats_ai वीडियो प्रतिलेख 0:00 आप सभी ने अद्भुत दिखने वाली छवियां देखी हैं 0:02 जैसे ये पूरी तरह से an . द्वारा उत्पन्न होते हैं 0:05 आर्टिफिशियल इंटेलिजेंस मॉडल जिसे मैंने कवर किया है 0:07 मेरे चैनल पर कई दृष्टिकोण जैसे 0:09 क्रेयॉन इमोजेन और सबसे प्रसिद्ध 0:12 डेली 2. ज्यादातर लोग उन्हें आजमाना चाहते हैं और 0:15 यादृच्छिक संकेतों से छवियां उत्पन्न करें लेकिन 0:18 इनमें से अधिकांश मॉडल खुले नहीं हैं 0:20 स्रोत जिसका अर्थ है नियमित लोग पसंद करते हैं 0:23 हम उनका स्वतंत्र रूप से उपयोग नहीं कर सकते, ऐसा क्यों है 0:26 हम इस वीडियो में क्या जानेंगे 0:29 मैंने कहा कि उनमें से ज्यादातर खुला स्रोत नहीं थे 0:32 अच्छी तरह से क्रेयॉन है और लोगों ने उत्पन्न किया है 0:35 इसका उपयोग करके अद्भुत मेम आप देख सकते हैं कि कैसे 0:38 खतरनाक हो सकता है ऐसा मॉडल 0:40 किसी को कुछ भी उत्पन्न करने की अनुमति नहीं 0:43 केवल संभावित दुरुपयोग के संबंध में 0:45 पीढ़ियों लेकिन डेटा का इस्तेमाल किया 0:47 से आने वाले ऐसे मॉडलों को प्रशिक्षित करें 0:50 इंटरनेट पर यादृच्छिक छवियां सुंदर 0:52 संदिग्ध सामग्री के साथ बहुत कुछ 0:55 और कुछ अप्रत्याशित छवियों का निर्माण 0:58 प्रशिक्षण डेटा भी पुनर्प्राप्त किया जा सकता है 1:00 मॉडल के व्युत्क्रम इंजीनियरिंग के माध्यम से 1:02 जो सबसे अधिक संभावना अवांछित है openai 1:05 रिलीज न करने का औचित्य साबित करने के लिए भी इसका इस्तेमाल किया 1:08 जनता के लिए दैनिक2 मॉडल यहाँ हम 1:10 देखेंगे कि वे क्या हैं 1:12 संभावित जोखिमों के रूप में जांच करना और कैसे 1:14 वे उन्हें कम करने की कोशिश कर रहे हैं मैं जाता हूँ 1:16 एक बहुत ही रोचक लेख के माध्यम से वे 1:18 उनके डेटा प्री-प्रोसेसिंग को कवर करते हुए लिखा 1:21 दलित ii को प्रशिक्षण देने से पहले के चरण 1:24 इसलिए मुझे कुछ सेकंड के लिए अपना होने दें 1:26 मेरे सबसे हाल के प्रोजेक्ट को प्रायोजित करें और साझा करें 1:28 जो मुझे हाल ही में आपकी रुचि हो सकती है 1:31 एक दैनिक समाचार पत्र साझा किया ai 1:34 एक सरल और के साथ समाचार और अनुसंधान 1:36 पेपर को जानने के लिए एक-लाइनर साफ़ करें 1:38 कोड या समाचार आपके समय के लायक है जो आप कर सकते हैं 1:41 लिंक्डइन पर या अपने साथ इसकी सदस्यता लें 1:43 ईमेल लिंक विवरण में है 1:45 नीचे 1:46 तो openai के मन में वास्तव में क्या है 1:48 जब वे कहते हैं कि वे बना रहे हैं 1:50 जोखिम कम करने के प्रयास 1:52 पहली और सबसे स्पष्ट बात यह है कि 1:55 वे हिंसक को छान रहे हैं और 1:57 सैकड़ों . से यौन चित्र 1:59 इंटरनेट पर लाखों छवियां यह 2:02 मोडल को सीखने से रोकने के लिए है 2:04 हिंसक और यौन उत्पादन कैसे करें 2:06 सामग्री या यहां तक कि मूल लौटाएं 2:08 छवियों को पीढ़ियों के रूप में यह पसंद नहीं है 2:11 अपने बच्चे को सिखाना कि कैसे लड़ना है यदि आप 2:13 मैं नहीं चाहता कि वह झगड़ों में पड़े 2:15 मदद कर सकता है लेकिन यह एक आदर्श से बहुत दूर है 2:17 अभी भी ठीक करें मुझे विश्वास है कि यह आवश्यक है 2:20 हमारे डेटा सेट में ऐसे फ़िल्टर हैं और 2:22 निश्चित रूप से इस मामले में मदद करता है लेकिन कैसे करें 2:25 वे ऐसा करते हैं कि वे वास्तव में कई का निर्माण करते हैं 2:27 डेटा को वर्गीकृत करने के लिए प्रशिक्षित मॉडल 2:30 उन्हें कुछ देकर फ़िल्टर किया गया या नहीं 2:32 विभिन्न सकारात्मक और नकारात्मक उदाहरण 2:34 और क्रमिक रूप से क्लासिफायर में सुधार करें 2:37 मानव प्रतिक्रिया के साथ प्रत्येक क्लासिफायर गया 2:39 हमारे पूरे डेटा सेट के माध्यम से और अधिक हटाना 2:42 छवियों की आवश्यकता के मामले में बस के रूप में यह है 2:44 मॉडल के लिए बुरा नहीं देखना बेहतर है 2:47 के बजाय पहले स्थान पर डेटा 2:48 बाद में शॉट को सही करने की कोशिश कर रहा है 2:51 प्रत्येक क्लासिफायरियर में एक अद्वितीय होगा 2:53 किस सामग्री को फ़िल्टर करना है इसकी समझ 2:56 और सभी खुद के पूरक होंगे 2:57 अच्छा फ़िल्टरिंग सुनिश्चित करना अगर अच्छे से हम 3:00 मतलब कोई झूठी नकारात्मक छवियां नहीं जा रही हैं 3:02 छानने की प्रक्रिया के माध्यम से 3:04 फिर भी यह पहले कमियों के साथ आता है 3:07 डेटा सेट स्पष्ट रूप से छोटा है और नहीं हो सकता है 3:10 वास्तविक दुनिया का सटीक प्रतिनिधित्व करते हैं 3:12 जो अच्छे या बुरे के आधार पर हो सकता है 3:14 उपयोग के मामले में उन्होंने यह भी पाया 3:16 इस डेटा का अप्रत्याशित दुष्प्रभाव 3:18 फ़िल्टरिंग प्रक्रिया ने इसे बढ़ाया 3:21 निश्चित के प्रति मॉडल का पूर्वाग्रह 3:23 जनसांख्यिकी दूसरे का परिचय 3:25 ओपनई एक पूर्व-प्रशिक्षण के रूप में काम कर रहा है 3:28 शमन के कारण होने वाले पूर्वाग्रहों को कम करता है 3:31 उदाहरण के लिए इस फ़िल्टरिंग के बाद 3:33 उनके द्वारा देखे गए पूर्वाग्रहों में से एक को छानना 3:36 यह था कि मोडल ने अधिक छवियां उत्पन्न कीं 3:38 की तुलना में पुरुषों और महिलाओं की कम 3:41 मूल डेटा सेट पर प्रशिक्षित मोडल 3:44 उन्होंने समझाया कि कारणों में से एक 3:46 हो सकता है कि महिलाएं अधिक बार दिखाई दें 3:48 यौन सामग्री में पुरुष जो पूर्वाग्रह कर सकते हैं 3:50 उनके क्लासिफायरियर अधिक झूठे को हटाने के लिए 3:53 नकारात्मक छवियां जिनमें से महिलाएं हैं 3:55 डेटा सेट में एक अंतर पैदा कर रहा है 3:57 लिंग अनुपात जो मॉडल में देखा गया है 4:00 प्रशिक्षण और प्रतिकृति यह तय करने के लिए कि वे 4:02 मिलान करने के लिए सेट किए गए फ़िल्टर किए गए डेटा को फिर से वज़न दें 4:05 प्रारंभिक का वितरण 4:07 यहां प्री-फ़िल्टर डेटा सेट एक उदाहरण है 4:10 वे बिल्लियों और कुत्तों का उपयोग करके कवर करते हैं जहां 4:12 फ़िल्टर अधिक डग हटा देगा तो बिल्लियाँ 4:14 तो फिक्स को दोगुना करना होगा 4:16 कुत्तों की छवियों के लिए प्रशिक्षण हानि जो 4:19 डग की दो तस्वीरें भेजने जैसा होगा 4:21 एक के बजाय और के लिए क्षतिपूर्ति 4:23 छवियों की कमी यह एक बार फिर बस एक है 4:26 वास्तविक फ़िल्टरिंग पूर्वाग्रह के लिए प्रॉक्सी लेकिन यह 4:29 अभी भी छवि वितरण अंतर को कम करता है 4:31 पूर्व-फ़िल्टर्ड और के बीच 4:33 फ़िल्टर्ड डेटा सेट 4:35 आखिरी मुद्दा का मुद्दा है 4:36 कुछ ऐसा याद रखना जो मॉडल लगते हैं 4:39 हम जैसे हैं उससे कहीं अधिक शक्तिशाली होने के लिए 4:42 कहा कि यह संभव है regurgitate करने के लिए 4:44 ऐसी छवि निर्माण से प्रशिक्षण डेटा 4:46 मॉडल जो ज्यादातर मामलों में नहीं चाहिए 4:49 यहाँ हम उपन्यास भी उत्पन्न करना चाहते हैं 4:51 छवियां और न केवल कॉपी पेस्ट छवियां 4:54 इंटरनेट से लेकिन हम कैसे रोक सकते हैं 4:56 कि हमारी स्मृति की तरह आप नहीं कर सकते 4:59 वास्तव में तय करें कि आपको क्या याद है और क्या 5:01 एक बार जब आप कुछ देखते हैं तो चला जाता है 5:03 या तो चिपक जाता है या यह उन्हें नहीं मिला 5:05 कि ठीक वैसे ही जैसे मनुष्य एक नया सीख रहा है 5:07 अवधारणा अगर मॉडल एक ही छवि देखता है 5:10 डेटा सेट में कई बार यह हो सकता है 5:12 गलती से इसे अंत में दिल से जान लें 5:15 इसके प्रशिक्षण का और इसे ठीक से उत्पन्न करें 5:17 एक समान या समान टेक्स्ट प्रॉम्प्ट के लिए 5:20 यह एक आसान और विश्वसनीय समाधान है 5:23 बस पता करें कि कौन सी छवियां भी हैं 5:25 समान और डुप्लिकेट को आसान हटाएं 5:28 ऐसा करने का मतलब होगा प्रत्येक की तुलना करना 5:30 हर दूसरी छवि अर्थ के साथ छवि 5:33 सैकड़ों चौथाई छवि जोड़े 5:36 इसके बजाय तुलना करने के लिए वे बस द्वारा शुरू करते हैं 5:38 समान छवियों को एक साथ समूहित करना और 5:41 फिर अन्य सभी के साथ छवियों की तुलना करें 5:43 उसी के भीतर की छवियां और कुछ अन्य 5:46 इसके चारों ओर क्लस्टर बेहद कम हो रहे हैं 5:48 जटिलता अभी भी 97 का पता लगा रही है 5:52 सभी डुप्लिकेट जोड़े फिर से एक और फिक्स 5:55 प्रशिक्षण से पहले डेटा सेट के भीतर करें 5:57 हमारे दैनिक मॉडल ओपनई का भी उल्लेख है 6:00 कुछ अगले कदम की वे जांच कर रहे हैं 6:02 और अगर आपने इस वीडियो का आनंद लिया है 6:04 निश्चित रूप से आपको उनके पढ़ने के लिए आमंत्रित करें 6:06 सभी विवरण देखने के लिए गहन लेख 6:08 इस पूर्व-प्रशिक्षण शमन कार्य का 6:11 यह एक बहुत ही रोचक और अच्छी तरह से लिखा गया है 6:13 लेख मुझे बताएं कि आप क्या सोचते हैं 6:15 उनके शमन प्रयास और उनके 6:17 मॉडल की पहुंच को सीमित करने का विकल्प 6:19 जनता 6:20 एक टिप्पणी छोड़ें या चर्चा में शामिल हों 6:22 हमारे समुदाय में कलह पर धन्यवाद 6:24 अंत तक देखने के लिए और मैं करूँगा 6:26 अगले हफ्ते मिलते हैं एक और अद्भुत के साथ 6:29 कागज़ [संगीत]