पिछले एक साल में, यूरोपीय AI स्टार्टअप अपने विदेशी प्रतिस्पर्धियों के साथ कदमताल कर रहे हैं और लोकप्रिय ChatGPT के बराबर उत्पाद पेश कर रहे हैं। तेजी से प्रगति और विकास पर ध्यान केंद्रित करने के साथ, पारदर्शिता, नैतिकता और उपयोगकर्ता प्रभाव से संबंधित मुद्दों को कभी-कभी पीछे छोड़ दिया जाता है। हालाँकि, यूरोपीय संघ के AI अधिनियम के लागू होने के साथ इसमें बदलाव होने की संभावना है, जो 2024 के अंत में शुरू होना चाहिए।
यूरोपीय संघ का एआई अधिनियम एआई सिस्टम को जोखिम स्तरों के आधार पर वर्गीकृत करता है। उच्च जोखिम वाले लेबल वाले सिस्टम को पारदर्शिता आवश्यकताओं का पालन करना होगा, जिसमें सार्वजनिक स्वास्थ्य, सुरक्षा, मानवाधिकारों और सामाजिक कल्याण पर संभावित प्रभावों का अनिवार्य मूल्यांकन शामिल होगा। उनमें पक्षपात की जाँच की जाएगी ताकि यह सुनिश्चित हो सके कि वे गैर-भेदभावपूर्ण हैं और मौलिक मानवाधिकारों का सम्मान करते हैं।
इसके अतिरिक्त, उच्च जोखिम प्रणालियों के डेवलपर्स को अनुपालन प्रदर्शित करने के लिए प्रशिक्षण विधियों और डेटासेट सहित विस्तृत दस्तावेज बनाए रखने के लिए बाध्य किया जाएगा।
GPT-3.5 के बराबर के फाउंडेशन मॉडल को विनियमित किया जाएगा यदि उन्हें प्रशिक्षित करने के लिए कम से कम 10²⁵ फ्लॉप कंप्यूटिंग शक्ति की आवश्यकता होती है। इसके विपरीत, ओपन-सोर्स मॉडल के संबंध में महत्वपूर्ण रियायतें दी जाएंगी, जिससे इस प्रकार के उत्पाद को विकसित करने के लिए प्रोत्साहन मिलेगा।
इसके अतिरिक्त, यूरोपीय संघ के एआई अधिनियम में प्रतिबंधित एआई सिस्टम की सूची दी गई है। इसमें संवेदनशील विशेषताओं (जैसे, जाति, धर्म, आदि) का उपयोग करके बायोमेट्रिक वर्गीकरण, चेहरे की छवियों की स्क्रैपिंग, कार्यस्थल और शैक्षिक भावना पहचान, सामाजिक स्कोरिंग, मानव व्यवहार में हेरफेर और मानव कमजोरियों का फायदा उठाने के लिए डिज़ाइन की गई प्रणालियाँ शामिल हैं।
यह अधिनियम गैर-अनुपालन के लिए प्रतिबंध भी लगाता है, जिसमें जुर्माना 7.5 मिलियन यूरो या कंपनी के वैश्विक कारोबार का 1.5% से लेकर 35 मिलियन यूरो या कारोबार का 7% तक हो सकता है, जो उल्लंघन और कंपनी के आकार पर निर्भर करता है।
यूरोपीय एआई अधिनियम के 2024 के अंत में लागू होने की संभावना के साथ, अभी से तैयारी शुरू करना महत्वपूर्ण है, खासकर यदि आपका सिस्टम वर्गीकृत है
हम डेटा तैयारी से लेकर गहन प्रणाली मूल्यांकन तक प्रणाली निर्माण के सभी पहलुओं पर ध्यान केंद्रित करने की अनुशंसा करते हैं।
जैसा कि EU AI अधिनियम में उल्लिखित है, कंपनियाँ डेटासेट का विस्तृत रिकॉर्ड रखने के लिए जिम्मेदार होंगी। यह कंपनियों को डेटा गोपनीयता का सम्मान करने और ट्रेसबिलिटी में सुधार करने के लिए बाध्य करेगा। उदाहरण के लिए, यदि कोई सिस्टम हानिकारक सामग्री उत्पन्न करता है, तो इसे उस डेटासेट में अनुचित डेटा या पक्षपाती पाठों से पता लगाया जा सकता है जिस पर इसे प्रशिक्षित किया गया था।
इसका मतलब है कि नए नियमों के लिए तैयारी करते समय प्रशिक्षण डेटासेट पर सावधानीपूर्वक विचार किया जाना चाहिए। इसमें प्रशिक्षण के लिए उपयोग किए जाने वाले डेटा के कुछ हिस्सों को फ़िल्टर करना और साफ़ करना या यहां तक कि कस्टम डेटासेट बनाना शामिल हो सकता है जो डोमेन-क्यूरेटेड होते हैं और स्क्रैप किए गए डेटा में मौजूद आम पूर्वाग्रहों से बचने के लिए जानबूझकर बनाए जाते हैं।
नए नियमों का पालन करने के लिए, एलएलएम बनाने वाली कंपनियों को अपने मॉडल को मानवीय अपेक्षाओं के अनुरूप बनाने में निवेश करना चाहिए, जिसमें सच्चाई, मददगारता और हानिरहितता पर ध्यान केंद्रित किया जाना चाहिए। एलएलएम संरेखण के लिए उपयोग की जाने वाली मुख्य विधियाँ हैं
दोनों विधियाँ मॉडल आउटपुट के लिए मानवीय प्राथमिकताएँ एकत्र करती हैं और इस डेटा का उपयोग मॉडल को यह सिखाने के लिए करती हैं कि वांछित आउटपुट कैसा दिखना चाहिए। यदि हम मॉडल को सही उदाहरण प्रदान करते हैं तो हम इस स्तर पर हानिकारक सामग्री निर्माण के बहुमत को काफी प्रभावी ढंग से रोक सकते हैं।
एआई सिस्टम का मूल्यांकन सर्वोच्च प्राथमिकता होगी और इसे उत्पाद विकास चक्र का हिस्सा बनने की आवश्यकता है। एक अच्छे मॉडल की भावना को एक सावधानीपूर्वक और गहन मूल्यांकन रणनीति द्वारा प्रतिस्थापित किया जाना चाहिए।
जनरेटिव एआई सिस्टम का मूल्यांकन करना विशेष रूप से कठिन है क्योंकि आउटपुट निर्धारक नहीं है। जेनरेट किए गए टेक्स्ट की तुलना स्वचालित रूप से "सही" उत्तर से नहीं की जा सकती। ऐसी प्रणालियों के मूल्यांकन में मानवीय प्रतिक्रिया शामिल होती है जो शुद्धता, सहायकता और हानिरहितता जैसे विभिन्न पहलुओं पर ध्यान केंद्रित करती है।
अधिकतर मामलों में सिस्टम को ऊपर बताए गए बुनियादी स्तरों से आगे भी मूल्यांकन करने की आवश्यकता होती है। उदाहरण के लिए, हानिकारकता का मूल्यांकन करते समय, हम इसे पूर्वाग्रह, घृणास्पद भाषण, नस्लवाद आदि जैसी श्रेणियों में विभाजित कर सकते हैं। इस तरह, हम बारीक स्तर पर पता लगा सकते हैं कि सिस्टम में क्या सुधार करने की आवश्यकता है ताकि इसका नकारात्मक प्रभाव कम से कम हो।
इसमें कोई संदेह नहीं है कि यूरोपीय संघ का एआई अधिनियम एआई विनियमन में एक महत्वपूर्ण कदम है, और यह एआई के एक नए युग का प्रतीक है, जहां जिम्मेदार एआई विकास अब एक विकल्प नहीं है और अब इसे कानूनी रूप से लागू किया जाएगा।
क्या आपकी कंपनी नए AI नियमों का अनुपालन करने के लिए तैयार है?