आप सभी ने इस तरह की अद्भुत दिखने वाली छवियां देखी हैं, जो पूरी तरह से एक कृत्रिम बुद्धिमत्ता मॉडल द्वारा बनाई गई हैं। मैंने अपने चैनल पर कई दृष्टिकोणों को कवर किया, जैसे कि क्रेयॉन, इमेजेन, और सबसे प्रसिद्ध, दल-ई 2।
अधिकांश लोग उन्हें आज़माना चाहते हैं और यादृच्छिक संकेतों से चित्र बनाना चाहते हैं, लेकिन इनमें से अधिकांश मॉडल ओपन-सोर्स नहीं हैं, जिसका अर्थ है कि हम, हमारे जैसे नियमित लोग, उनका स्वतंत्र रूप से उपयोग नहीं कर सकते। क्यों? इस वीडियो में हम यही जानेंगे...
►पूरा लेख पढ़ें: https://www.louisbouchard.ai/how-openai-reduces-risks-for-dall-e-2/
►OpenAI का लेख: https://openai.com/blog/dall-e-2-pre-training-mitigations/
डेल 2 वीडियो:
क्रेयों का वीडियो:
क्रेयॉन का उपयोग करें: https://www.craiyon.com/
►माई डेली न्यूजलेटर: https://www.getrevue.co/profile/whats_ai
0:00
आप सभी ने अद्भुत दिखने वाली छवियां देखी हैं
0:02
जैसे ये पूरी तरह से an . द्वारा उत्पन्न होते हैं
0:05
आर्टिफिशियल इंटेलिजेंस मॉडल जिसे मैंने कवर किया है
0:07
मेरे चैनल पर कई दृष्टिकोण जैसे
0:09
क्रेयॉन इमोजेन और सबसे प्रसिद्ध
0:12
डेली 2. ज्यादातर लोग उन्हें आजमाना चाहते हैं और
0:15
यादृच्छिक संकेतों से छवियां उत्पन्न करें लेकिन
0:18
इनमें से अधिकांश मॉडल खुले नहीं हैं
0:20
स्रोत जिसका अर्थ है नियमित लोग पसंद करते हैं
0:23
हम उनका स्वतंत्र रूप से उपयोग नहीं कर सकते, ऐसा क्यों है
0:26
हम इस वीडियो में क्या जानेंगे
0:29
मैंने कहा कि उनमें से ज्यादातर खुला स्रोत नहीं थे
0:32
अच्छी तरह से क्रेयॉन है और लोगों ने उत्पन्न किया है
0:35
इसका उपयोग करके अद्भुत मेम आप देख सकते हैं कि कैसे
0:38
खतरनाक हो सकता है ऐसा मॉडल
0:40
किसी को कुछ भी उत्पन्न करने की अनुमति नहीं
0:43
केवल संभावित दुरुपयोग के संबंध में
0:45
पीढ़ियों लेकिन डेटा का इस्तेमाल किया
0:47
से आने वाले ऐसे मॉडलों को प्रशिक्षित करें
0:50
इंटरनेट पर यादृच्छिक छवियां सुंदर
0:52
संदिग्ध सामग्री के साथ बहुत कुछ
0:55
और कुछ अप्रत्याशित छवियों का निर्माण
0:58
प्रशिक्षण डेटा भी पुनर्प्राप्त किया जा सकता है
1:00
मॉडल के व्युत्क्रम इंजीनियरिंग के माध्यम से
1:02
जो सबसे अधिक संभावना अवांछित है openai
1:05
रिलीज न करने का औचित्य साबित करने के लिए भी इसका इस्तेमाल किया
1:08
जनता के लिए दैनिक2 मॉडल यहाँ हम
1:10
देखेंगे कि वे क्या हैं
1:12
संभावित जोखिमों के रूप में जांच करना और कैसे
1:14
वे उन्हें कम करने की कोशिश कर रहे हैं मैं जाता हूँ
1:16
एक बहुत ही रोचक लेख के माध्यम से वे
1:18
उनके डेटा प्री-प्रोसेसिंग को कवर करते हुए लिखा
1:21
दलित ii को प्रशिक्षण देने से पहले के चरण
1:24
इसलिए मुझे कुछ सेकंड के लिए अपना होने दें
1:26
मेरे सबसे हाल के प्रोजेक्ट को प्रायोजित करें और साझा करें
1:28
जो मुझे हाल ही में आपकी रुचि हो सकती है
1:31
एक दैनिक समाचार पत्र साझा किया ai
1:34
एक सरल और के साथ समाचार और अनुसंधान
1:36
पेपर को जानने के लिए एक-लाइनर साफ़ करें
1:38
कोड या समाचार आपके समय के लायक है जो आप कर सकते हैं
1:41
लिंक्डइन पर या अपने साथ इसकी सदस्यता लें
1:43
ईमेल लिंक विवरण में है
1:45
नीचे
1:46
तो openai के मन में वास्तव में क्या है
1:48
जब वे कहते हैं कि वे बना रहे हैं
1:50
जोखिम कम करने के प्रयास
1:52
पहली और सबसे स्पष्ट बात यह है कि
1:55
वे हिंसक को छान रहे हैं और
1:57
सैकड़ों . से यौन चित्र
1:59
इंटरनेट पर लाखों छवियां यह
2:02
मोडल को सीखने से रोकने के लिए है
2:04
हिंसक और यौन उत्पादन कैसे करें
2:06
सामग्री या यहां तक कि मूल लौटाएं
2:08
छवियों को पीढ़ियों के रूप में यह पसंद नहीं है
2:11
अपने बच्चे को सिखाना कि कैसे लड़ना है यदि आप
2:13
मैं नहीं चाहता कि वह झगड़ों में पड़े
2:15
मदद कर सकता है लेकिन यह एक आदर्श से बहुत दूर है
2:17
अभी भी ठीक करें मुझे विश्वास है कि यह आवश्यक है
2:20
हमारे डेटा सेट में ऐसे फ़िल्टर हैं और
2:22
निश्चित रूप से इस मामले में मदद करता है लेकिन कैसे करें
2:25
वे ऐसा करते हैं कि वे वास्तव में कई का निर्माण करते हैं
2:27
डेटा को वर्गीकृत करने के लिए प्रशिक्षित मॉडल
2:30
उन्हें कुछ देकर फ़िल्टर किया गया या नहीं
2:32
विभिन्न सकारात्मक और नकारात्मक उदाहरण
2:34
और क्रमिक रूप से क्लासिफायर में सुधार करें
2:37
मानव प्रतिक्रिया के साथ प्रत्येक क्लासिफायर गया
2:39
हमारे पूरे डेटा सेट के माध्यम से और अधिक हटाना
2:42
छवियों की आवश्यकता के मामले में बस के रूप में यह है
2:44
मॉडल के लिए बुरा नहीं देखना बेहतर है
2:47
के बजाय पहले स्थान पर डेटा
2:48
बाद में शॉट को सही करने की कोशिश कर रहा है
2:51
प्रत्येक क्लासिफायरियर में एक अद्वितीय होगा
2:53
किस सामग्री को फ़िल्टर करना है इसकी समझ
2:56
और सभी खुद के पूरक होंगे
2:57
अच्छा फ़िल्टरिंग सुनिश्चित करना अगर अच्छे से हम
3:00
मतलब कोई झूठी नकारात्मक छवियां नहीं जा रही हैं
3:02
छानने की प्रक्रिया के माध्यम से
3:04
फिर भी यह पहले कमियों के साथ आता है
3:07
डेटा सेट स्पष्ट रूप से छोटा है और नहीं हो सकता है
3:10
वास्तविक दुनिया का सटीक प्रतिनिधित्व करते हैं
3:12
जो अच्छे या बुरे के आधार पर हो सकता है
3:14
उपयोग के मामले में उन्होंने यह भी पाया
3:16
इस डेटा का अप्रत्याशित दुष्प्रभाव
3:18
फ़िल्टरिंग प्रक्रिया ने इसे बढ़ाया
3:21
निश्चित के प्रति मॉडल का पूर्वाग्रह
3:23
जनसांख्यिकी दूसरे का परिचय
3:25
ओपनई एक पूर्व-प्रशिक्षण के रूप में काम कर रहा है
3:28
शमन के कारण होने वाले पूर्वाग्रहों को कम करता है
3:31
उदाहरण के लिए इस फ़िल्टरिंग के बाद
3:33
उनके द्वारा देखे गए पूर्वाग्रहों में से एक को छानना
3:36
यह था कि मोडल ने अधिक छवियां उत्पन्न कीं
3:38
की तुलना में पुरुषों और महिलाओं की कम
3:41
मूल डेटा सेट पर प्रशिक्षित मोडल
3:44
उन्होंने समझाया कि कारणों में से एक
3:46
हो सकता है कि महिलाएं अधिक बार दिखाई दें
3:48
यौन सामग्री में पुरुष जो पूर्वाग्रह कर सकते हैं
3:50
उनके क्लासिफायरियर अधिक झूठे को हटाने के लिए
3:53
नकारात्मक छवियां जिनमें से महिलाएं हैं
3:55
डेटा सेट में एक अंतर पैदा कर रहा है
3:57
लिंग अनुपात जो मॉडल में देखा गया है
4:00
प्रशिक्षण और प्रतिकृति यह तय करने के लिए कि वे
4:02
मिलान करने के लिए सेट किए गए फ़िल्टर किए गए डेटा को फिर से वज़न दें
4:05
प्रारंभिक का वितरण
4:07
यहां प्री-फ़िल्टर डेटा सेट एक उदाहरण है
4:10
वे बिल्लियों और कुत्तों का उपयोग करके कवर करते हैं जहां
4:12
फ़िल्टर अधिक डग हटा देगा तो बिल्लियाँ
4:14
तो फिक्स को दोगुना करना होगा
4:16
कुत्तों की छवियों के लिए प्रशिक्षण हानि जो
4:19
डग की दो तस्वीरें भेजने जैसा होगा
4:21
एक के बजाय और के लिए क्षतिपूर्ति
4:23
छवियों की कमी यह एक बार फिर बस एक है
4:26
वास्तविक फ़िल्टरिंग पूर्वाग्रह के लिए प्रॉक्सी लेकिन यह
4:29
अभी भी छवि वितरण अंतर को कम करता है
4:31
पूर्व-फ़िल्टर्ड और के बीच
4:33
फ़िल्टर्ड डेटा सेट
4:35
आखिरी मुद्दा का मुद्दा है
4:36
कुछ ऐसा याद रखना जो मॉडल लगते हैं
4:39
हम जैसे हैं उससे कहीं अधिक शक्तिशाली होने के लिए
4:42
कहा कि यह संभव है regurgitate करने के लिए
4:44
ऐसी छवि निर्माण से प्रशिक्षण डेटा
4:46
मॉडल जो ज्यादातर मामलों में नहीं चाहिए
4:49
यहाँ हम उपन्यास भी उत्पन्न करना चाहते हैं
4:51
छवियां और न केवल कॉपी पेस्ट छवियां
4:54
इंटरनेट से लेकिन हम कैसे रोक सकते हैं
4:56
कि हमारी स्मृति की तरह आप नहीं कर सकते
4:59
वास्तव में तय करें कि आपको क्या याद है और क्या
5:01
एक बार जब आप कुछ देखते हैं तो चला जाता है
5:03
या तो चिपक जाता है या यह उन्हें नहीं मिला
5:05
कि ठीक वैसे ही जैसे मनुष्य एक नया सीख रहा है
5:07
अवधारणा अगर मॉडल एक ही छवि देखता है
5:10
डेटा सेट में कई बार यह हो सकता है
5:12
गलती से इसे अंत में दिल से जान लें
5:15
इसके प्रशिक्षण का और इसे ठीक से उत्पन्न करें
5:17
एक समान या समान टेक्स्ट प्रॉम्प्ट के लिए
5:20
यह एक आसान और विश्वसनीय समाधान है
5:23
बस पता करें कि कौन सी छवियां भी हैं
5:25
समान और डुप्लिकेट को आसान हटाएं
5:28
ऐसा करने का मतलब होगा प्रत्येक की तुलना करना
5:30
हर दूसरी छवि अर्थ के साथ छवि
5:33
सैकड़ों चौथाई छवि जोड़े
5:36
इसके बजाय तुलना करने के लिए वे बस द्वारा शुरू करते हैं
5:38
समान छवियों को एक साथ समूहित करना और
5:41
फिर अन्य सभी के साथ छवियों की तुलना करें
5:43
उसी के भीतर की छवियां और कुछ अन्य
5:46
इसके चारों ओर क्लस्टर बेहद कम हो रहे हैं
5:48
जटिलता अभी भी 97 का पता लगा रही है
5:52
सभी डुप्लिकेट जोड़े फिर से एक और फिक्स
5:55
प्रशिक्षण से पहले डेटा सेट के भीतर करें
5:57
हमारे दैनिक मॉडल ओपनई का भी उल्लेख है
6:00
कुछ अगले कदम की वे जांच कर रहे हैं
6:02
और अगर आपने इस वीडियो का आनंद लिया है
6:04
निश्चित रूप से आपको उनके पढ़ने के लिए आमंत्रित करें
6:06
सभी विवरण देखने के लिए गहन लेख
6:08
इस पूर्व-प्रशिक्षण शमन कार्य का
6:11
यह एक बहुत ही रोचक और अच्छी तरह से लिखा गया है
6:13
लेख मुझे बताएं कि आप क्या सोचते हैं
6:15
उनके शमन प्रयास और उनके
6:17
मॉडल की पहुंच को सीमित करने का विकल्प
6:19
जनता
6:20
एक टिप्पणी छोड़ें या चर्चा में शामिल हों
6:22
हमारे समुदाय में कलह पर धन्यवाद
6:24
अंत तक देखने के लिए और मैं करूँगा
6:26
अगले हफ्ते मिलते हैं एक और अद्भुत के साथ
6:29
कागज़
[संगीत]