paint-brush
यूरोपीय संघ ने अनियमित एआई पर रोक लगाईद्वारा@konkiewicz
2,441 रीडिंग
2,441 रीडिंग

यूरोपीय संघ ने अनियमित एआई पर रोक लगाई

द्वारा Magdalena Konkiewicz4m2024/04/10
Read on Terminal Reader

बहुत लंबा; पढ़ने के लिए

यूरोपीय एआई अधिनियम 2024 के अंत में लागू किया जाएगा। अधिनियम जोखिम स्तरों के आधार पर एआई सिस्टम को वर्गीकृत करता है। उच्च जोखिम वाले सिस्टम को पारदर्शिता आवश्यकताओं का पालन करना होगा। कंपनियों को प्रशिक्षण डेटा का रिकॉर्ड रखने की ज़िम्मेदारी होगी। इससे कंपनियों को डेटा गोपनीयता का सम्मान करने और ट्रेसबिलिटी में सुधार करने के लिए मजबूर होना पड़ेगा।
featured image - यूरोपीय संघ ने अनियमित एआई पर रोक लगाई
Magdalena Konkiewicz HackerNoon profile picture

विश्वव्यापी प्रभाव और कैसे तैयार रहें

परिचय

पिछले एक साल में, यूरोपीय AI स्टार्टअप अपने विदेशी प्रतिस्पर्धियों के साथ कदमताल कर रहे हैं और लोकप्रिय ChatGPT के बराबर उत्पाद पेश कर रहे हैं। तेजी से प्रगति और विकास पर ध्यान केंद्रित करने के साथ, पारदर्शिता, नैतिकता और उपयोगकर्ता प्रभाव से संबंधित मुद्दों को कभी-कभी पीछे छोड़ दिया जाता है। हालाँकि, यूरोपीय संघ के AI अधिनियम के लागू होने के साथ इसमें बदलाव होने की संभावना है, जो 2024 के अंत में शुरू होना चाहिए।


यूरोपीय संघ एआई अधिनियम मार्च 2024 में यूरोपीय संसद द्वारा स्वीकृत किए गए इस विधेयक से यूरोपीय संघ के भीतर विकसित एआई पर भारी विनियमन लागू हो गया है। हालाँकि, इसका प्रभाव यूरोप की सीमाओं से परे भी फैला हुआ है, जो न केवल यूरोपीय एआई फर्मों को बल्कि संयुक्त राज्य अमेरिका सहित अंतर्राष्ट्रीय कंपनियों को भी सीधे प्रभावित करता है, जो यूरोपीय संघ के बाजार में अपने उत्पाद पेश करते हैं।

कौन प्रभावित होगा?

यूरोपीय संघ का एआई अधिनियम एआई सिस्टम को जोखिम स्तरों के आधार पर वर्गीकृत करता है। उच्च जोखिम वाले लेबल वाले सिस्टम को पारदर्शिता आवश्यकताओं का पालन करना होगा, जिसमें सार्वजनिक स्वास्थ्य, सुरक्षा, मानवाधिकारों और सामाजिक कल्याण पर संभावित प्रभावों का अनिवार्य मूल्यांकन शामिल होगा। उनमें पक्षपात की जाँच की जाएगी ताकि यह सुनिश्चित हो सके कि वे गैर-भेदभावपूर्ण हैं और मौलिक मानवाधिकारों का सम्मान करते हैं।


इसके अतिरिक्त, उच्च जोखिम प्रणालियों के डेवलपर्स को अनुपालन प्रदर्शित करने के लिए प्रशिक्षण विधियों और डेटासेट सहित विस्तृत दस्तावेज बनाए रखने के लिए बाध्य किया जाएगा।


GPT-3.5 के बराबर के फाउंडेशन मॉडल को विनियमित किया जाएगा यदि उन्हें प्रशिक्षित करने के लिए कम से कम 10²⁵ फ्लॉप कंप्यूटिंग शक्ति की आवश्यकता होती है। इसके विपरीत, ओपन-सोर्स मॉडल के संबंध में महत्वपूर्ण रियायतें दी जाएंगी, जिससे इस प्रकार के उत्पाद को विकसित करने के लिए प्रोत्साहन मिलेगा।


इसके अतिरिक्त, यूरोपीय संघ के एआई अधिनियम में प्रतिबंधित एआई सिस्टम की सूची दी गई है। इसमें संवेदनशील विशेषताओं (जैसे, जाति, धर्म, आदि) का उपयोग करके बायोमेट्रिक वर्गीकरण, चेहरे की छवियों की स्क्रैपिंग, कार्यस्थल और शैक्षिक भावना पहचान, सामाजिक स्कोरिंग, मानव व्यवहार में हेरफेर और मानव कमजोरियों का फायदा उठाने के लिए डिज़ाइन की गई प्रणालियाँ शामिल हैं।


यह अधिनियम गैर-अनुपालन के लिए प्रतिबंध भी लगाता है, जिसमें जुर्माना 7.5 मिलियन यूरो या कंपनी के वैश्विक कारोबार का 1.5% से लेकर 35 मिलियन यूरो या कारोबार का 7% तक हो सकता है, जो उल्लंघन और कंपनी के आकार पर निर्भर करता है।

कैसे तैयार रहें?

यूरोपीय एआई अधिनियम के 2024 के अंत में लागू होने की संभावना के साथ, अभी से तैयारी शुरू करना महत्वपूर्ण है, खासकर यदि आपका सिस्टम वर्गीकृत है भारी जोखिम या आप सामान्य प्रयोजन के AI मॉडल विकसित कर रहे हैं। भले ही आपका सिस्टम सख्त विनियमन के अंतर्गत न आता हो, फिर भी उपयोगकर्ताओं पर नकारात्मक प्रभाव से बचने के लिए जिम्मेदार AI विकास में निवेश करना उचित हो सकता है।


हम डेटा तैयारी से लेकर गहन प्रणाली मूल्यांकन तक प्रणाली निर्माण के सभी पहलुओं पर ध्यान केंद्रित करने की अनुशंसा करते हैं।

प्रशिक्षण डेटा पर पूरा ध्यान दें

जैसा कि EU AI अधिनियम में उल्लिखित है, कंपनियाँ डेटासेट का विस्तृत रिकॉर्ड रखने के लिए जिम्मेदार होंगी। यह कंपनियों को डेटा गोपनीयता का सम्मान करने और ट्रेसबिलिटी में सुधार करने के लिए बाध्य करेगा। उदाहरण के लिए, यदि कोई सिस्टम हानिकारक सामग्री उत्पन्न करता है, तो इसे उस डेटासेट में अनुचित डेटा या पक्षपाती पाठों से पता लगाया जा सकता है जिस पर इसे प्रशिक्षित किया गया था।


इसका मतलब है कि नए नियमों के लिए तैयारी करते समय प्रशिक्षण डेटासेट पर सावधानीपूर्वक विचार किया जाना चाहिए। इसमें प्रशिक्षण के लिए उपयोग किए जाने वाले डेटा के कुछ हिस्सों को फ़िल्टर करना और साफ़ करना या यहां तक कि कस्टम डेटासेट बनाना शामिल हो सकता है जो डोमेन-क्यूरेटेड होते हैं और स्क्रैप किए गए डेटा में मौजूद आम पूर्वाग्रहों से बचने के लिए जानबूझकर बनाए जाते हैं।

मानवीय प्रतिक्रिया के साथ संरेखण विधियाँ

नए नियमों का पालन करने के लिए, एलएलएम बनाने वाली कंपनियों को अपने मॉडल को मानवीय अपेक्षाओं के अनुरूप बनाने में निवेश करना चाहिए, जिसमें सच्चाई, मददगारता और हानिरहितता पर ध्यान केंद्रित किया जाना चाहिए। एलएलएम संरेखण के लिए उपयोग की जाने वाली मुख्य विधियाँ हैं मानवीय प्रतिक्रिया से सुदृढीकरण सीखना (आरएलएचएफ) और प्रत्यक्ष वरीयता अनुकूलन (डीपीओ)


दोनों विधियाँ मॉडल आउटपुट के लिए मानवीय प्राथमिकताएँ एकत्र करती हैं और इस डेटा का उपयोग मॉडल को यह सिखाने के लिए करती हैं कि वांछित आउटपुट कैसा दिखना चाहिए। यदि हम मॉडल को सही उदाहरण प्रदान करते हैं तो हम इस स्तर पर हानिकारक सामग्री निर्माण के बहुमत को काफी प्रभावी ढंग से रोक सकते हैं।

गहन मूल्यांकन

एआई सिस्टम का मूल्यांकन सर्वोच्च प्राथमिकता होगी और इसे उत्पाद विकास चक्र का हिस्सा बनने की आवश्यकता है। एक अच्छे मॉडल की भावना को एक सावधानीपूर्वक और गहन मूल्यांकन रणनीति द्वारा प्रतिस्थापित किया जाना चाहिए।


जनरेटिव एआई सिस्टम का मूल्यांकन करना विशेष रूप से कठिन है क्योंकि आउटपुट निर्धारक नहीं है। जेनरेट किए गए टेक्स्ट की तुलना स्वचालित रूप से "सही" उत्तर से नहीं की जा सकती। ऐसी प्रणालियों के मूल्यांकन में मानवीय प्रतिक्रिया शामिल होती है जो शुद्धता, सहायकता और हानिरहितता जैसे विभिन्न पहलुओं पर ध्यान केंद्रित करती है।


अधिकतर मामलों में सिस्टम को ऊपर बताए गए बुनियादी स्तरों से आगे भी मूल्यांकन करने की आवश्यकता होती है। उदाहरण के लिए, हानिकारकता का मूल्यांकन करते समय, हम इसे पूर्वाग्रह, घृणास्पद भाषण, नस्लवाद आदि जैसी श्रेणियों में विभाजित कर सकते हैं। इस तरह, हम बारीक स्तर पर पता लगा सकते हैं कि सिस्टम में क्या सुधार करने की आवश्यकता है ताकि इसका नकारात्मक प्रभाव कम से कम हो।

सारांश

इसमें कोई संदेह नहीं है कि यूरोपीय संघ का एआई अधिनियम एआई विनियमन में एक महत्वपूर्ण कदम है, और यह एआई के एक नए युग का प्रतीक है, जहां जिम्मेदार एआई विकास अब एक विकल्प नहीं है और अब इसे कानूनी रूप से लागू किया जाएगा।


क्या आपकी कंपनी नए AI नियमों का अनुपालन करने के लिए तैयार है?