एआई को व्यापक रूप से अपनाने के लिए इसके उपयोग को नियंत्रित, प्रबंधित और सुरक्षित करने के लिए व्यवस्थित सुरक्षा उपायों की आवश्यकता है।
हाल के दिनों में, दुनिया ने डिजिटल परिदृश्य के हर पहलू में व्याप्त कृत्रिम बुद्धिमत्ता के उपयोग में उल्लेखनीय वृद्धि देखी है। स्वचालित प्रसंस्करण से लेकर उन्नत एल्गोरिदम तक, कृत्रिम बुद्धिमत्ता धीरे-धीरे हमारे दैनिक जीवन और व्यावसायिक कार्यों का एक अभिन्न अंग बन रही है। विभिन्न उद्योगों और क्षेत्रों में कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों का उपयोग अभूतपूर्व पैमाने पर और तेजी से बढ़ रहा है। इसके परिणामस्वरूप समाज पर गहरा प्रभाव पड़ा है, साथ ही व्यक्तियों के मूल अधिकारों के लिए खतरे और जोखिम भी पैदा हुए हैं।
आर्टिफिशियल इंटेलिजेंस (AI) एक व्यापक क्षेत्र है जिसमें विभिन्न मशीन लर्निंग, तर्क और ज्ञान-आधारित तकनीकें और दृष्टिकोण शामिल हैं, जो ऐसे सिस्टम बनाने के लिए हैं जो आम तौर पर मनुष्यों द्वारा किए जाने वाले कार्यों को कर सकते हैं या जिनके लिए मानव संज्ञानात्मक क्षमताओं की आवश्यकता होती है। इसमें प्राकृतिक भाषा प्रसंस्करण, छवि पहचान, समस्या-समाधान और निर्णय लेने जैसे कार्य शामिल हैं। यूरोपीय संघ के AI अधिनियम और AI जोखिम प्रबंधन पर OECD रिपोर्ट के अनुसार, एक AI प्रणाली एक मशीन-आधारित प्रणाली है, जो स्पष्ट या निहित उद्देश्यों के लिए, प्राप्त इनपुट से अनुमान लगाती है कि कैसे भविष्यवाणियों, सामग्री, सिफारिशों या निर्णयों जैसे आउटपुट उत्पन्न किए जाएं जो भौतिक या आभासी वातावरण को प्रभावित कर सकते हैं।
इसके दो व्यापक वर्गीकरण हैं:
GAN मशीन-लर्निंग फ्रेमवर्क हैं, जिसमें दो न्यूरल नेटवर्क, एक जनरेटर और एक डिस्क्रिमिनेटर शामिल हैं। जनरेटर, लक्ष्य प्रारूप में फ़ीड किए गए यादृच्छिक शोर को आकार देकर डेटा उत्पन्न करता है। जनरेटर अकेले अपने आउटपुट की गुणवत्ता का आकलन नहीं कर सकते। यहीं पर डिस्क्रिमिनेटर मॉडल काम आता है। डिस्क्रिमिनेटर का उद्देश्य जनरेटर द्वारा उत्पन्न वास्तविक डेटा और नकली डेटा के बीच अंतर करना है। दोनों को एक साथ प्रशिक्षित किया जाता है, जिसमें डिस्क्रिमिनेटर को वास्तविक और जनरेटर डेटा में अंतर करने के लिए प्रशिक्षित किया जाता है, और जनरेटर को अधिक यथार्थवादी डेटा बनाकर डिस्क्रिमिनेटर को भ्रमित करने के लिए प्रशिक्षित किया जाता है। जैसे-जैसे प्रशिक्षण आगे बढ़ता है, प्रत्येक मॉडल अपने कार्य में अधिक बेहतर होता जाता है, जिसके परिणामस्वरूप जनरेटर यथार्थवादी दिखने वाली सामग्री बनाने में सक्षम होता है। GAN के साथ चुनौती उन्हें प्रशिक्षित करना है। उदाहरण के लिए, GAN प्रशिक्षण में मॉडल पतन से गुजर सकते हैं, जिसमें जनरेटर केवल डिस्क्रिमिनेटर को भ्रमित करने के लिए पर्याप्त लेकिन उपयोगी होने के लिए पर्याप्त नहीं, नमूनों की एक छोटी विविधता उत्पन्न करना सीखता है। यहीं पर प्रसार मॉडल काम आता है। संक्षेप में, प्रसार मॉडल को इसके शोर-क्षेत्र संस्करणों से प्रशिक्षण डेटा को पुनर्प्राप्त करने के लिए प्रशिक्षित किया जाता है। प्रशिक्षण के बाद, प्रसार शुद्ध शोर इनपुट से पूरी तरह से नई छवियों का विचार कर सकता है। यह क्रमिक डेनोइज़िंग प्रक्रिया के माध्यम से एक छवि का निर्माण करता है।
इसके बाद, ऑटोरिग्रैसिव मॉडल सांख्यिकी में निहित हैं। यह पिछले तत्वों पर आधारित अनुक्रम में अगले तत्व की संभावना को मॉडलिंग करके डेटा के अनुक्रम उत्पन्न करता है। फिर अगले तत्व को इस वितरण से यादृच्छिक रूप से चुना जाता है, "तापमान" पैरामीटर का उपयोग करके परिणामों को अधिक नियतात्मक या अधिक यादृच्छिक बनाया जा सकता है, और प्रक्रिया दोहराई जाती है। ऑटोरिग्रैसिव मॉडल के लिए लोकप्रिय न्यूरल नेटवर्क घटकों में LSTM और ट्रांसफॉर्मर शामिल हैं (जो न्यूरल नेटवर्क को बहुत बड़ी मात्रा में टेक्स्ट ट्रेनिंग डेटा में पैटर्न सीखने की अनुमति देते हैं)। इसमें दिए गए अनुक्रम को पूरा करने के बजाय, हम ऑटोरिग्रैसिव मॉडल में एक संरेखण चरण जोड़ते हैं। यहां, मॉडल को मानवीय प्रतिक्रिया के आधार पर कुछ इनपुट-आउटपुट जोड़ों को दूसरों के लिए प्राथमिकता देने के लिए अतिरिक्त रूप से प्रशिक्षित किया जाता है। उदाहरण के लिए, LLMs संरेखण में, मॉडल को सफलतापूर्वक सिखाया गया है कि प्रश्नों और आदेशों (सुदृढ़ीकरण सीखने) का जवाब कैसे दिया जाए।
जनरेटिव AI मॉडल, खास तौर पर लार्ज लैंग्वेज मॉडल (LLM) के विकास में डेटा की अहम भूमिका होती है। ये मॉडल प्रशिक्षण और परिशोधन के लिए बड़ी मात्रा में डेटा पर निर्भर करते हैं। उदाहरण के लिए, OpenAI के ChatGPT को इंटरनेट से एकत्र किए गए 45 टेराबाइट से ज़्यादा टेक्स्ट डेटा वाले व्यापक डेटासेट पर प्रशिक्षित किया गया था, जिसमें डिजिटाइज़ की गई किताबें और विकिपीडिया प्रविष्टियाँ शामिल हैं। हालाँकि, जनरेटिव AI में डेटा संग्रह की व्यापक ज़रूरत कई तरह की चिंताएँ पैदा कर सकती है, जिसमें व्यक्तियों की सहमति के बिना व्यक्तिगत डेटा का अनजाने में संग्रह और उपयोग शामिल है। Google AI शोधकर्ताओं ने यह भी स्वीकार किया है कि ये डेटासेट, जो अक्सर बड़े होते हैं और विभिन्न स्थानों से प्राप्त होते हैं, उनमें संवेदनशील व्यक्तिगत जानकारी हो सकती है, भले ही वे सार्वजनिक रूप से उपलब्ध डेटा से प्राप्त हों।
डेटा संग्रहण के लिए मोटे तौर पर दो सामान्य स्रोत हैं:
सार्वजनिक रूप से सुलभ डेटा - वेब स्क्रैपिंग डेटा एकत्र करने के लिए उपयोग की जाने वाली सबसे आम विधि है। इसमें सार्वजनिक रूप से सुलभ वेब पेजों से बड़ी मात्रा में जानकारी निकालना शामिल है। इस डेटा का उपयोग फिर प्रशिक्षण उद्देश्यों के लिए किया जाता है या बिक्री के लिए फिर से इस्तेमाल किया जा सकता है या अन्य AI डेवलपर्स को मुफ़्त में उपलब्ध कराया जा सकता है। वेब स्क्रैपिंग के माध्यम से प्राप्त डेटा में अक्सर फेसबुक, ट्विटर, लिंक्डइन, वेनमो और अन्य वेबसाइटों जैसे सोशल मीडिया प्लेटफ़ॉर्म पर उपयोगकर्ताओं द्वारा साझा की गई व्यक्तिगत जानकारी शामिल होती है। जबकि व्यक्ति संभावित नियोक्ताओं से जुड़ने या नए दोस्त बनाने जैसे विभिन्न कारणों से ऐसे प्लेटफ़ॉर्म पर व्यक्तिगत जानकारी पोस्ट कर सकते हैं, वे आम तौर पर अपने डेटा का उपयोग जनरेटिव AI मॉडल के प्रशिक्षण के लिए नहीं करना चाहते हैं।
उपयोगकर्ता डेटा - चैटबॉट जैसे जनरेटिव AI अनुप्रयोगों के साथ उपयोगकर्ताओं द्वारा साझा किया गया डेटा, डेटा विषयों की जानकारी या सहमति के बिना प्रशिक्षण के लिए संग्रहीत और उपयोग किया जा सकता है। उदाहरण के लिए, स्वास्थ्य सेवा सलाह, चिकित्सा, वित्तीय सेवाएँ और अन्य सेवाएँ प्रदान करने वाले चैटबॉट के साथ बातचीत करने वाले उपयोगकर्ता संवेदनशील व्यक्तिगत जानकारी प्रकट कर सकते हैं। जबकि ऐसे चैटबॉट सेवा की शर्तें प्रदान कर सकते हैं जिसमें उल्लेख किया गया है कि उपयोगकर्ता डेटा का उपयोग "सेवा को विकसित करने और सुधारने" के लिए किया जा सकता है, आलोचक तर्क दे सकते हैं कि जनरेटिव AI मॉडल को उपयोगकर्ताओं से सकारात्मक सहमति लेनी चाहिए या उपयोगकर्ता डेटा के संग्रह, उपयोग और प्रतिधारण के बारे में स्पष्ट प्रकटीकरण प्रदान करना चाहिए।
कई संगठनों ने अपने उत्पादों या सेवाओं में जनरेटिव एआई मॉडल को भी शामिल किया है ताकि वे अपनी पेशकश को बेहतर बना सकें। कुछ मामलों में इस तरह का एकीकरण, इन मॉडलों के प्रशिक्षण और फाइन-ट्यूनिंग के लिए उपभोक्ताओं के व्यक्तिगत डेटा सहित डेटा के स्रोत के रूप में भी काम कर सकता है।
संभावित खतरों में शामिल हैं:
जैसे-जैसे हम जनरेटिव एआई तकनीकों से अत्यधिक प्रभावित युग में प्रवेश कर रहे हैं, आर्टिफिशियल इंटेलिजेंस का शासन उन व्यवसायों के लिए एक महत्वपूर्ण प्राथमिकता बन गया है जो कानूनी और नैतिक आवश्यकताओं को पूरा करते हुए डेटा और एआई के सुरक्षित उपयोग को सक्षम करना चाहते हैं। अक्टूबर 2023 में, आर्टिफिशियल इंटेलिजेंस के "सुरक्षित, संरक्षित और भरोसेमंद" उपयोग ने अमेरिका में बिडेन-हैरिस प्रशासन से एक कार्यकारी आदेश की गारंटी दी, एक ऐसा आदेश जो यूरोपीय संघ के एआई अधिनियम, किताबों में दुनिया का पहला व्यापक एआई कानून के तुरंत बाद जारी किया गया था। चीन, यूके और कनाडा जैसे अन्य देशों और यहां तक कि कई अमेरिकी राज्यों ने भी अपनी खुद की रेखाएँ खींची हैं या तो कानून का प्रस्ताव दिया है या अधिनियमित किया है जो एआई में सुरक्षा, सुरक्षा और पारदर्शिता के महत्व को उजागर करता है।
उत्पाद प्रबंधकों और सामान्य रूप से उद्यम नेताओं को अपने व्यावसायिक व्यवहारों में एआई को शामिल करते समय इस सुरक्षित एआई उपयोग मानसिकता को अपनाने की आवश्यकता है। प्रभावी एआई शासन नियंत्रण और निरीक्षण प्रदान करता है, यह सुनिश्चित करता है कि व्यवसाय अपनी एआई सेवाओं को जिम्मेदारी से, नैतिक रूप से और आंतरिक नीतियों और बाहरी विनियमों दोनों के अनुपालन में एक प्रलेखित, कुशल और प्रदर्शन योग्य तरीके से विकसित और प्रबंधित करते हैं। यह उद्यमों को विश्वास बनाए रखने और जवाबदेही जोड़ने में सक्षम करेगा।
एआई गवर्नेंस का तात्पर्य ऐसे ढाँचे, नियम, मानक, कानूनी आवश्यकताएँ, नीतियाँ और सर्वोत्तम अभ्यास लागू करना है जो कृत्रिम बुद्धिमत्ता के उपयोग को नियंत्रित, प्रबंधित और निगरानी करते हैं। इसमें कानूनी और नैतिक आवश्यकताओं को पूरा करने के लिए एआई गतिविधियों को निर्देशित, प्रबंधित और निगरानी करना शामिल है। नैतिक मोर्चे पर, व्यवसायों को ग्राहक विश्वास बनाने और बनाए रखने के लिए अपने एआई मॉडल में उच्च स्तर की पारदर्शिता, सुरक्षा और सुरक्षा सुनिश्चित करने पर ध्यान केंद्रित करना चाहिए। कानूनी मोर्चे पर, उद्यमों को कानूनी आवश्यकताओं के अनुरूप होना चाहिए और नियामकों को संतुष्ट करना चाहिए या पर्याप्त वित्तीय दंड और ब्रांड प्रतिष्ठा को नुकसान पहुँचाने का जोखिम उठाना चाहिए।
मैकिन्से रिसर्च का अनुमान है कि भविष्य में जनरेटिव AI सालाना 2.6 ट्रिलियन से 4.4 ट्रिलियन डॉलर के बीच मूल्य में योगदान दे सकता है। हालाँकि, इस क्षमता को साकार करने के लिए, संगठनों को AI को पारदर्शी, सुरक्षित और भरोसेमंद तरीके से लागू करना होगा। वास्तव में, गार्टनर का सुझाव है कि जो संगठन सुरक्षित और भरोसेमंद AI को सफलतापूर्वक संचालित करते हैं, वे अपने AI अपनाने और व्यावसायिक लक्ष्यों की प्राप्ति में 50% की वृद्धि देख सकते हैं।
इनमें निम्नलिखित शामिल हैं:
गार्टनर द्वारा विकसित AI गवर्नेंस फ्रेमवर्क का एक उदाहरण AI TRiSM - AI ट्रस्ट, जोखिम और सुरक्षा प्रबंधन फ्रेमवर्क है, जो AI के उपयोग में जोखिम शमन और डेटा गोपनीयता कानूनों के साथ संरेखण पर केंद्रित है। इसके चार स्तंभ हैं, 1) व्याख्या और मॉडल निगरानी - पारदर्शिता और विश्वसनीयता सुनिश्चित करने के लिए। 2) मॉडल संचालन - इसमें उनके पूरे जीवनचक्र में AI मॉडल के प्रबंधन के लिए प्रक्रियाओं और प्रणालियों को विकसित करना शामिल है। 3) AI एप्लिकेशन सुरक्षा - मॉडल को साइबर खतरों से सुरक्षित और संरक्षित रखने के लिए। 4) मॉडल गोपनीयता - गोपनीयता कानूनों (डेटा उद्देश्य/भंडारण सीमाएं, डेटा न्यूनीकरण/सुरक्षा सिद्धांत) के अनुसार डेटा प्रवाह का प्रबंधन करके AI मॉडल को प्रशिक्षित या परीक्षण करने के लिए उपयोग किए जाने वाले डेटा की सुरक्षा करना।
AI सिस्टम में बेहतर दृश्यता - AI मॉडल खोजें और उन्हें सूचीबद्ध करें। यहाँ उद्देश्य व्यवसायों को सार्वजनिक क्लाउड, निजी वातावरण और तृतीय-पक्ष ऐप में उपयोग किए जाने वाले सभी AI मॉडल की पहचान करके और उनका विवरण रिकॉर्ड करके उनके AI उपयोग का पूर्ण और व्यापक अवलोकन प्रदान करना है। इसमें मॉडल के उद्देश्य, प्रशिक्षण डेटा, आर्किटेक्चर, इनपुट, आउटपुट और अनिर्दिष्ट या अस्वीकृत AI मॉडल सहित इंटरैक्शन शामिल हैं। इस जानकारी का केंद्रीकृत कैटलॉग बनाने से पारदर्शिता, शासन और AI के प्रभावी उपयोग में वृद्धि होती है, जिससे बेहतर निर्णय और जोखिम प्रबंधन में सहायता मिलती है। यह AI अनुप्रयोगों की पूरी श्रृंखला को प्रकट करने और संगठन के भीतर परिचालन संबंधी बाधाओं को दूर करने के लिए आवश्यक है।
व्यापक जोखिम मूल्यांकन - जोखिमों का आकलन करें और AI मॉडल को वर्गीकृत करें। यहाँ उद्देश्य पूर्व-विकास और विकास चरणों में उनके AI सिस्टम के जोखिमों का आकलन करना और जोखिम शमन चरणों को लागू करना है। इसमें मॉडल कार्ड का लाभ उठाना शामिल है जो मॉडल विवरण, इच्छित उपयोग, सीमाएँ और नैतिक विचारों सहित AI मॉडल के लिए पूर्वनिर्धारित जोखिम मूल्यांकन प्रदान करते हैं। ये जोखिम रेटिंग विषाक्तता, दुर्भावना, पूर्वाग्रह, कॉपीराइट संबंधी विचार, भ्रम जोखिम और यहाँ तक कि ऊर्जा खपत और अनुमान रनटाइम के संदर्भ में मॉडल दक्षता जैसे पहलुओं को कवर करने वाले व्यापक विवरण प्रदान करती हैं। इन रेटिंग के आधार पर संगठन यह तय कर सकते हैं कि किन मॉडलों को तैनाती और उपयोग के लिए मंजूरी देनी है, किन मॉडलों को ब्लॉक करना है और किन मॉडलों को उपभोग से पहले अतिरिक्त सुरक्षा की आवश्यकता है।
पारदर्शी डेटा अभ्यास - AI प्रवाह के लिए डेटा को मैप और मॉनिटर करें। प्रशिक्षण, ट्यूनिंग और अनुमान के लिए डेटा AI सिस्टम में प्रवाहित होता है और आउटपुट के रूप में डेटा AI सिस्टम से बाहर निकलता है। यह व्यवसायों को उनके AI मॉडल और AI सिस्टम के आसपास के पूरे संदर्भ को उजागर करने की अनुमति देता है। यह AI मॉडल और सिस्टम को संबंधित डेटा स्रोतों और सिस्टम, डेटा प्रोसेसिंग, SaaS एप्लिकेशन, संभावित जोखिमों और अनुपालन दायित्वों से मैप करता है। यह व्यापक मानचित्रण गोपनीयता, अनुपालन, सुरक्षा और डेटा टीमों को निर्भरता की पहचान करने, विफलता के संभावित बिंदुओं को इंगित करने और यह सुनिश्चित करने में सक्षम बनाता है कि AI शासन प्रतिक्रियाशील के बजाय सक्रिय है।
मजबूत सुरक्षा नियंत्रण - डेटा को AI नियंत्रणों में लागू करें। यह AI मॉडल में डाले गए और उनसे उत्पन्न किए गए डेटा की सुरक्षा और गोपनीयता के लिए सख्त नियंत्रणों की स्थापना की अनुमति देता है। ऐसे नियंत्रणों में क्रमशः सुरक्षा ढांचे और गोपनीयता कानूनों द्वारा अनिवार्य डेटा सुरक्षा और गोपनीयता नियंत्रण शामिल हैं। उदाहरण के लिए, डेटासेट से पहचान योग्य मानों को हटाने के लिए रेडक्शन या अनामीकरण तकनीकें लागू की जा सकती हैं। यह एंटरप्राइज़ डेटा नीतियों और उपयोगकर्ता अधिकारों के साथ संरेखित करते हुए AI मॉडल में डेटा के सुरक्षित अंतर्ग्रहण को सुनिश्चित करता है। यदि संवेदनशील डेटा LLM मॉडल में अपना रास्ता खोज लेता है तो इसे सुरक्षित करना बेहद मुश्किल हो जाता है। इसी तरह, यदि एंटरप्राइज़ डेटा को वेक्टर फ़ॉर्म में बदल दिया जाता है, तो इसे सुरक्षित करना अधिक चुनौतीपूर्ण हो जाता है। डेटा निर्माण और आउटपुट पक्ष पर, AI इंटरैक्शन की सुरक्षा के लिए बाहरी हमलों, दुर्भावनापूर्ण आंतरिक उपयोग और गलत कॉन्फ़िगरेशन के खिलाफ सावधानी बरतने की आवश्यकता होती है। AI सहायकों, बॉट और एजेंटों के साथ सुरक्षित बातचीत सुनिश्चित करने के लिए, हानिकारक संकेतों, पुनर्प्राप्ति और प्रतिक्रियाओं को फ़िल्टर करने के लिए LLM फ़ायरवॉल को तैनात किया जाना चाहिए। ये फायरवॉल्स, LLMs के लिए OWASP टॉप 10 और NIST AI RMF फ्रेमवर्क में उजागर की गई विभिन्न कमजोरियों से बचाव करने में सक्षम होने चाहिए, जिनमें त्वरित इंजेक्शन हमले और डेटा एक्सफिलट्रेशन हमले शामिल हैं।
विनियामक ढाँचों का सजग अनुपालन - विनियमों का अनुपालन करें। AI सिस्टम का उपयोग करने वाले व्यवसायों को AI-विशिष्ट विनियमों और मानकों के साथ-साथ डेटा गोपनीयता दायित्वों का अनुपालन करना चाहिए जो AI के उपयोग से संबंधित हैं। इस मांग वाली अनुपालन प्रक्रिया को कारगर बनाने के लिए, व्यवसाय AI के अनुरूप व्यापक अनुपालन स्वचालन का लाभ उठा सकते हैं। ऐसी प्रणाली वैश्विक AI विनियमों और ढाँचों की एक विस्तृत सूची प्रदान करती है, जिसमें NIST AI RMF और EU AI अधिनियम शामिल हैं। यह अपने ढाँचे के भीतर अलग-अलग AI परियोजनाओं के निर्माण की सुविधा प्रदान करता है, जिससे उपयोगकर्ता प्रत्येक परियोजना के लिए आवश्यक नियंत्रणों की पहचान और उन्हें लागू कर सकते हैं। इस प्रक्रिया में स्वचालित जाँच और मूल्यांकन दोनों शामिल हैं, जिसके लिए अनुपालन सुनिश्चित करने के लिए समग्र दृष्टिकोण प्रदान करने वाले हितधारकों से इनपुट की आवश्यकता होती है।
जो उद्यम एआई गवर्नेंस को सफलतापूर्वक लागू करेंगे, उन्हें सफलता मिलेगी
क) उनकी स्वीकृत और अस्वीकृत एआई प्रणालियों में पूर्ण पारदर्शिता
ख) एआई जोखिमों की स्पष्ट दृश्यता
ग) एआई और डेटा का मानचित्रण
d) मजबूत स्वचालित AI + डेटा नियंत्रण
ई) वैश्विक एआई विनियमों का अनुपालन।
कुल मिलाकर, हमें AI के सुरक्षित उपयोग को सुनिश्चित करने की आवश्यकता है। सुरक्षा को प्राथमिकता देने से तत्काल अल्पावधि में व्यापार लाभ थोड़ा कम हो सकता है, लेकिन मध्यम और दीर्घकालिक लाभ पर्याप्त हैं।