paint-brush
उत्तरदायी एआई शासन के लिए रणनीतियाँद्वारा@hackerclup7sajo00003b6s2naft6zw
673 रीडिंग
673 रीडिंग

उत्तरदायी एआई शासन के लिए रणनीतियाँ

द्वारा Priyanka Neelakrishnan10m2024/05/07
Read on Terminal Reader

बहुत लंबा; पढ़ने के लिए

जैसे-जैसे AI का प्रभाव बढ़ता है, मजबूत शासन आवश्यक होता जाता है। जनरेटिव और भेदभावपूर्ण AI मॉडल के बीच भेदभाव करने से लेकर व्यापक जोखिम मूल्यांकन और अनुपालन ढांचे को लागू करने तक, AI शासन पारदर्शिता, डेटा सुरक्षा और नैतिक AI प्रथाओं को सुनिश्चित करता है, जो दीर्घकालिक लाभ और विनियामक अनुपालन की नींव रखता है।
featured image - उत्तरदायी एआई शासन के लिए रणनीतियाँ
Priyanka Neelakrishnan HackerNoon profile picture
0-item
1-item


एआई को व्यापक रूप से अपनाने के लिए इसके उपयोग को नियंत्रित, प्रबंधित और सुरक्षित करने के लिए व्यवस्थित सुरक्षा उपायों की आवश्यकता है।


हाल के दिनों में, दुनिया ने डिजिटल परिदृश्य के हर पहलू में व्याप्त कृत्रिम बुद्धिमत्ता के उपयोग में उल्लेखनीय वृद्धि देखी है। स्वचालित प्रसंस्करण से लेकर उन्नत एल्गोरिदम तक, कृत्रिम बुद्धिमत्ता धीरे-धीरे हमारे दैनिक जीवन और व्यावसायिक कार्यों का एक अभिन्न अंग बन रही है। विभिन्न उद्योगों और क्षेत्रों में कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों का उपयोग अभूतपूर्व पैमाने पर और तेजी से बढ़ रहा है। इसके परिणामस्वरूप समाज पर गहरा प्रभाव पड़ा है, साथ ही व्यक्तियों के मूल अधिकारों के लिए खतरे और जोखिम भी पैदा हुए हैं।

कृत्रिम बुद्धिमत्ता क्या है?

आर्टिफिशियल इंटेलिजेंस (AI) एक व्यापक क्षेत्र है जिसमें विभिन्न मशीन लर्निंग, तर्क और ज्ञान-आधारित तकनीकें और दृष्टिकोण शामिल हैं, जो ऐसे सिस्टम बनाने के लिए हैं जो आम तौर पर मनुष्यों द्वारा किए जाने वाले कार्यों को कर सकते हैं या जिनके लिए मानव संज्ञानात्मक क्षमताओं की आवश्यकता होती है। इसमें प्राकृतिक भाषा प्रसंस्करण, छवि पहचान, समस्या-समाधान और निर्णय लेने जैसे कार्य शामिल हैं। यूरोपीय संघ के AI अधिनियम और AI जोखिम प्रबंधन पर OECD रिपोर्ट के अनुसार, एक AI प्रणाली एक मशीन-आधारित प्रणाली है, जो स्पष्ट या निहित उद्देश्यों के लिए, प्राप्त इनपुट से अनुमान लगाती है कि कैसे भविष्यवाणियों, सामग्री, सिफारिशों या निर्णयों जैसे आउटपुट उत्पन्न किए जाएं जो भौतिक या आभासी वातावरण को प्रभावित कर सकते हैं।


इसके दो व्यापक वर्गीकरण हैं:

  • विभेदक ए.आई. - केवल डेटा वर्गीकरण कर सकता है। उदाहरण: लॉजिस्टिक रिग्रेशन, के-निकटतम पड़ोसी, सपोर्ट वेक्टर मशीन और ग्रेडिएंट-बूस्टेड निर्णय वृक्ष। तंत्रिका वास्तुकला जैसे कि कन्वोल्यूशनल न्यूरल नेटवर्क (सी.एन.एन.) और लॉन्ग शॉर्ट-टर्म मेमोरी (एल.एस.टी.एम.) इकाइयों का उपयोग अक्सर बहुत लंबे और अलग-अलग लंबाई के इनपुट के लिए उचित आकार के विभेदक मॉडल बनाने के लिए किया जाता है।
  • जनरेटिव AI - उस विषय-वस्तु से मिलती-जुलती नई विषय-वस्तु उत्पन्न करना जिस पर उसे प्रशिक्षित किया गया है। उदाहरण: जनरेटिव एडवर्सरियल नेटवर्क (GANs), प्रसार मॉडल और ऑटोरिग्रैसिव मॉडल।


GAN मशीन-लर्निंग फ्रेमवर्क हैं, जिसमें दो न्यूरल नेटवर्क, एक जनरेटर और एक डिस्क्रिमिनेटर शामिल हैं। जनरेटर, लक्ष्य प्रारूप में फ़ीड किए गए यादृच्छिक शोर को आकार देकर डेटा उत्पन्न करता है। जनरेटर अकेले अपने आउटपुट की गुणवत्ता का आकलन नहीं कर सकते। यहीं पर डिस्क्रिमिनेटर मॉडल काम आता है। डिस्क्रिमिनेटर का उद्देश्य जनरेटर द्वारा उत्पन्न वास्तविक डेटा और नकली डेटा के बीच अंतर करना है। दोनों को एक साथ प्रशिक्षित किया जाता है, जिसमें डिस्क्रिमिनेटर को वास्तविक और जनरेटर डेटा में अंतर करने के लिए प्रशिक्षित किया जाता है, और जनरेटर को अधिक यथार्थवादी डेटा बनाकर डिस्क्रिमिनेटर को भ्रमित करने के लिए प्रशिक्षित किया जाता है। जैसे-जैसे प्रशिक्षण आगे बढ़ता है, प्रत्येक मॉडल अपने कार्य में अधिक बेहतर होता जाता है, जिसके परिणामस्वरूप जनरेटर यथार्थवादी दिखने वाली सामग्री बनाने में सक्षम होता है। GAN के साथ चुनौती उन्हें प्रशिक्षित करना है। उदाहरण के लिए, GAN प्रशिक्षण में मॉडल पतन से गुजर सकते हैं, जिसमें जनरेटर केवल डिस्क्रिमिनेटर को भ्रमित करने के लिए पर्याप्त लेकिन उपयोगी होने के लिए पर्याप्त नहीं, नमूनों की एक छोटी विविधता उत्पन्न करना सीखता है। यहीं पर प्रसार मॉडल काम आता है। संक्षेप में, प्रसार मॉडल को इसके शोर-क्षेत्र संस्करणों से प्रशिक्षण डेटा को पुनर्प्राप्त करने के लिए प्रशिक्षित किया जाता है। प्रशिक्षण के बाद, प्रसार शुद्ध शोर इनपुट से पूरी तरह से नई छवियों का विचार कर सकता है। यह क्रमिक डेनोइज़िंग प्रक्रिया के माध्यम से एक छवि का निर्माण करता है।


इसके बाद, ऑटोरिग्रैसिव मॉडल सांख्यिकी में निहित हैं। यह पिछले तत्वों पर आधारित अनुक्रम में अगले तत्व की संभावना को मॉडलिंग करके डेटा के अनुक्रम उत्पन्न करता है। फिर अगले तत्व को इस वितरण से यादृच्छिक रूप से चुना जाता है, "तापमान" पैरामीटर का उपयोग करके परिणामों को अधिक नियतात्मक या अधिक यादृच्छिक बनाया जा सकता है, और प्रक्रिया दोहराई जाती है। ऑटोरिग्रैसिव मॉडल के लिए लोकप्रिय न्यूरल नेटवर्क घटकों में LSTM और ट्रांसफॉर्मर शामिल हैं (जो न्यूरल नेटवर्क को बहुत बड़ी मात्रा में टेक्स्ट ट्रेनिंग डेटा में पैटर्न सीखने की अनुमति देते हैं)। इसमें दिए गए अनुक्रम को पूरा करने के बजाय, हम ऑटोरिग्रैसिव मॉडल में एक संरेखण चरण जोड़ते हैं। यहां, मॉडल को मानवीय प्रतिक्रिया के आधार पर कुछ इनपुट-आउटपुट जोड़ों को दूसरों के लिए प्राथमिकता देने के लिए अतिरिक्त रूप से प्रशिक्षित किया जाता है। उदाहरण के लिए, LLMs संरेखण में, मॉडल को सफलतापूर्वक सिखाया गया है कि प्रश्नों और आदेशों (सुदृढ़ीकरण सीखने) का जवाब कैसे दिया जाए।


एआई के प्रमुख लाभ

  • दक्षता के लिए स्वचालन - दोहराए जाने वाले कार्यों को स्वचालित करना, जिससे उत्पादकता और परिचालन दक्षता में वृद्धि होगी;
  • डेटा-संचालित अंतर्दृष्टि - बड़े डेटासेट से मूल्यवान अंतर्दृष्टि निकालना, डेटा-संचालित निर्णय लेने के माध्यम से व्यवसायों को प्रतिस्पर्धात्मक बढ़त प्रदान करना;
  • रचनात्मक समस्या समाधान - अस्पष्ट या अपूर्ण निर्देश दिए जाने पर भी नवीन समाधान और विचार उत्पन्न करना, जिससे समस्या समाधान और रचनात्मकता में वृद्धि हो;
  • सामग्री निर्माण - उच्च गुणवत्ता वाली सामग्री का तेजी से और बड़े पैमाने पर उत्पादन करना, जिससे सामग्री विपणन, विज्ञापन और ग्राहक जुड़ाव को लाभ मिले;
  • स्वायत्त निर्णय-निर्माण - स्वायत्त निर्णय-निर्माण के ऐसे स्तरों को सक्षम बनाता है जो AI की पिछली पीढ़ियों के साथ संभव नहीं थे।

जनरेटिव एआई में डेटा का महत्व

जनरेटिव AI मॉडल, खास तौर पर लार्ज लैंग्वेज मॉडल (LLM) के विकास में डेटा की अहम भूमिका होती है। ये मॉडल प्रशिक्षण और परिशोधन के लिए बड़ी मात्रा में डेटा पर निर्भर करते हैं। उदाहरण के लिए, OpenAI के ChatGPT को इंटरनेट से एकत्र किए गए 45 टेराबाइट से ज़्यादा टेक्स्ट डेटा वाले व्यापक डेटासेट पर प्रशिक्षित किया गया था, जिसमें डिजिटाइज़ की गई किताबें और विकिपीडिया प्रविष्टियाँ शामिल हैं। हालाँकि, जनरेटिव AI में डेटा संग्रह की व्यापक ज़रूरत कई तरह की चिंताएँ पैदा कर सकती है, जिसमें व्यक्तियों की सहमति के बिना व्यक्तिगत डेटा का अनजाने में संग्रह और उपयोग शामिल है। Google AI शोधकर्ताओं ने यह भी स्वीकार किया है कि ये डेटासेट, जो अक्सर बड़े होते हैं और विभिन्न स्थानों से प्राप्त होते हैं, उनमें संवेदनशील व्यक्तिगत जानकारी हो सकती है, भले ही वे सार्वजनिक रूप से उपलब्ध डेटा से प्राप्त हों।


डेटा संग्रहण के लिए मोटे तौर पर दो सामान्य स्रोत हैं:

  • सार्वजनिक रूप से सुलभ डेटा - वेब स्क्रैपिंग डेटा एकत्र करने के लिए उपयोग की जाने वाली सबसे आम विधि है। इसमें सार्वजनिक रूप से सुलभ वेब पेजों से बड़ी मात्रा में जानकारी निकालना शामिल है। इस डेटा का उपयोग फिर प्रशिक्षण उद्देश्यों के लिए किया जाता है या बिक्री के लिए फिर से इस्तेमाल किया जा सकता है या अन्य AI डेवलपर्स को मुफ़्त में उपलब्ध कराया जा सकता है। वेब स्क्रैपिंग के माध्यम से प्राप्त डेटा में अक्सर फेसबुक, ट्विटर, लिंक्डइन, वेनमो और अन्य वेबसाइटों जैसे सोशल मीडिया प्लेटफ़ॉर्म पर उपयोगकर्ताओं द्वारा साझा की गई व्यक्तिगत जानकारी शामिल होती है। जबकि व्यक्ति संभावित नियोक्ताओं से जुड़ने या नए दोस्त बनाने जैसे विभिन्न कारणों से ऐसे प्लेटफ़ॉर्म पर व्यक्तिगत जानकारी पोस्ट कर सकते हैं, वे आम तौर पर अपने डेटा का उपयोग जनरेटिव AI मॉडल के प्रशिक्षण के लिए नहीं करना चाहते हैं।


  • उपयोगकर्ता डेटा - चैटबॉट जैसे जनरेटिव AI अनुप्रयोगों के साथ उपयोगकर्ताओं द्वारा साझा किया गया डेटा, डेटा विषयों की जानकारी या सहमति के बिना प्रशिक्षण के लिए संग्रहीत और उपयोग किया जा सकता है। उदाहरण के लिए, स्वास्थ्य सेवा सलाह, चिकित्सा, वित्तीय सेवाएँ और अन्य सेवाएँ प्रदान करने वाले चैटबॉट के साथ बातचीत करने वाले उपयोगकर्ता संवेदनशील व्यक्तिगत जानकारी प्रकट कर सकते हैं। जबकि ऐसे चैटबॉट सेवा की शर्तें प्रदान कर सकते हैं जिसमें उल्लेख किया गया है कि उपयोगकर्ता डेटा का उपयोग "सेवा को विकसित करने और सुधारने" के लिए किया जा सकता है, आलोचक तर्क दे सकते हैं कि जनरेटिव AI मॉडल को उपयोगकर्ताओं से सकारात्मक सहमति लेनी चाहिए या उपयोगकर्ता डेटा के संग्रह, उपयोग और प्रतिधारण के बारे में स्पष्ट प्रकटीकरण प्रदान करना चाहिए।


कई संगठनों ने अपने उत्पादों या सेवाओं में जनरेटिव एआई मॉडल को भी शामिल किया है ताकि वे अपनी पेशकश को बेहतर बना सकें। कुछ मामलों में इस तरह का एकीकरण, इन मॉडलों के प्रशिक्षण और फाइन-ट्यूनिंग के लिए उपभोक्ताओं के व्यक्तिगत डेटा सहित डेटा के स्रोत के रूप में भी काम कर सकता है।


संभावित खतरों में शामिल हैं:

  • व्यक्तियों और समाजों की अनधिकृत सामूहिक निगरानी
  • व्यक्तियों की व्यक्तिगत जानकारी का अप्रत्याशित और अनजाने में उल्लंघन
  • विभिन्न प्रयोजनों के लिए बड़े पैमाने पर व्यक्तिगत डेटा का हेरफेर
  • व्यक्तियों की विश्वसनीय और चालाकीपूर्ण डीप फेक (गहरी झूठी तस्वीरें) का निर्माण
  • कानूनी और सामाजिक रूप से महत्वपूर्ण परिणामों में सांस्कृतिक पूर्वाग्रहों, नस्लवाद और पूर्वाग्रहों के प्रभावों को छिपाते हुए उन्हें बढ़ाना
  • उद्देश्य सीमा, भंडारण सीमा और डेटा न्यूनीकरण के डेटा संरक्षण सिद्धांतों का उल्लंघन
  • व्यक्तियों के विशिष्ट समूहों के विरुद्ध भेदभाव और सामाजिक पूर्वाग्रह
  • गलत सूचना देना और तथ्यात्मक रूप से गलत जानकारी प्रस्तुत करना
  • बौद्धिक संपदा और कॉपीराइट उल्लंघन


एआई गवर्नेंस

जैसे-जैसे हम जनरेटिव एआई तकनीकों से अत्यधिक प्रभावित युग में प्रवेश कर रहे हैं, आर्टिफिशियल इंटेलिजेंस का शासन उन व्यवसायों के लिए एक महत्वपूर्ण प्राथमिकता बन गया है जो कानूनी और नैतिक आवश्यकताओं को पूरा करते हुए डेटा और एआई के सुरक्षित उपयोग को सक्षम करना चाहते हैं। अक्टूबर 2023 में, आर्टिफिशियल इंटेलिजेंस के "सुरक्षित, संरक्षित और भरोसेमंद" उपयोग ने अमेरिका में बिडेन-हैरिस प्रशासन से एक कार्यकारी आदेश की गारंटी दी, एक ऐसा आदेश जो यूरोपीय संघ के एआई अधिनियम, किताबों में दुनिया का पहला व्यापक एआई कानून के तुरंत बाद जारी किया गया था। चीन, यूके और कनाडा जैसे अन्य देशों और यहां तक कि कई अमेरिकी राज्यों ने भी अपनी खुद की रेखाएँ खींची हैं या तो कानून का प्रस्ताव दिया है या अधिनियमित किया है जो एआई में सुरक्षा, सुरक्षा और पारदर्शिता के महत्व को उजागर करता है।


उत्पाद प्रबंधकों और सामान्य रूप से उद्यम नेताओं को अपने व्यावसायिक व्यवहारों में एआई को शामिल करते समय इस सुरक्षित एआई उपयोग मानसिकता को अपनाने की आवश्यकता है। प्रभावी एआई शासन नियंत्रण और निरीक्षण प्रदान करता है, यह सुनिश्चित करता है कि व्यवसाय अपनी एआई सेवाओं को जिम्मेदारी से, नैतिक रूप से और आंतरिक नीतियों और बाहरी विनियमों दोनों के अनुपालन में एक प्रलेखित, कुशल और प्रदर्शन योग्य तरीके से विकसित और प्रबंधित करते हैं। यह उद्यमों को विश्वास बनाए रखने और जवाबदेही जोड़ने में सक्षम करेगा।


एआई गवर्नेंस का तात्पर्य ऐसे ढाँचे, नियम, मानक, कानूनी आवश्यकताएँ, नीतियाँ और सर्वोत्तम अभ्यास लागू करना है जो कृत्रिम बुद्धिमत्ता के उपयोग को नियंत्रित, प्रबंधित और निगरानी करते हैं। इसमें कानूनी और नैतिक आवश्यकताओं को पूरा करने के लिए एआई गतिविधियों को निर्देशित, प्रबंधित और निगरानी करना शामिल है। नैतिक मोर्चे पर, व्यवसायों को ग्राहक विश्वास बनाने और बनाए रखने के लिए अपने एआई मॉडल में उच्च स्तर की पारदर्शिता, सुरक्षा और सुरक्षा सुनिश्चित करने पर ध्यान केंद्रित करना चाहिए। कानूनी मोर्चे पर, उद्यमों को कानूनी आवश्यकताओं के अनुरूप होना चाहिए और नियामकों को संतुष्ट करना चाहिए या पर्याप्त वित्तीय दंड और ब्रांड प्रतिष्ठा को नुकसान पहुँचाने का जोखिम उठाना चाहिए।


मैकिन्से रिसर्च का अनुमान है कि भविष्य में जनरेटिव AI सालाना 2.6 ट्रिलियन से 4.4 ट्रिलियन डॉलर के बीच मूल्य में योगदान दे सकता है। हालाँकि, इस क्षमता को साकार करने के लिए, संगठनों को AI को पारदर्शी, सुरक्षित और भरोसेमंद तरीके से लागू करना होगा। वास्तव में, गार्टनर का सुझाव है कि जो संगठन सुरक्षित और भरोसेमंद AI को सफलतापूर्वक संचालित करते हैं, वे अपने AI अपनाने और व्यावसायिक लक्ष्यों की प्राप्ति में 50% की वृद्धि देख सकते हैं।


उद्यमों में एआई गवर्नेंस के प्रमुख चालक

इनमें निम्नलिखित शामिल हैं:

  • नवाचार - एआई गवर्नेंस एक संरचित, तथापि लचीला ढांचा प्रदान करता है जो जिम्मेदार नवाचार को प्रोत्साहित करता है।
  • दक्षता - एआई विकास और परिनियोजन को मानकीकृत और अनुकूलित करके, एआई शासन उद्यमों को लागत कम करते हुए एआई उत्पादों को तेजी से बाजार में लाने में सक्षम बनाता है।
  • अनुपालन - AI गवर्नेंस AI समाधानों और निर्णय-निर्माण को उद्योग विनियमों और वैश्विक कानूनी मानकों के साथ संरेखित करता है। यह सुनिश्चित करता है कि AI अभ्यास कानूनी आवश्यकताओं को पूरा करते हैं, व्यवसाय के लिए कानूनी जोखिमों को कम करते हैं और इसके विनियामक अनुपालन को आगे बढ़ाते हैं।
  • ट्रस्ट - AI गवर्नेंस भरोसेमंद और पारदर्शी AI सिस्टम बनाने पर केंद्रित है। यह अभ्यास ग्राहक के अधिकारों और संतुष्टि को बनाए रखने के साथ-साथ संगठन के ब्रांड मूल्य की सुरक्षा के लिए भी महत्वपूर्ण है। भरोसेमंद AI नियामक कार्रवाई के जोखिम को कम करते हुए ग्राहक के विश्वास और वफादारी को बढ़ाता है।


गार्टनर द्वारा विकसित AI गवर्नेंस फ्रेमवर्क का एक उदाहरण AI TRiSM - AI ट्रस्ट, जोखिम और सुरक्षा प्रबंधन फ्रेमवर्क है, जो AI के उपयोग में जोखिम शमन और डेटा गोपनीयता कानूनों के साथ संरेखण पर केंद्रित है। इसके चार स्तंभ हैं, 1) व्याख्या और मॉडल निगरानी - पारदर्शिता और विश्वसनीयता सुनिश्चित करने के लिए। 2) मॉडल संचालन - इसमें उनके पूरे जीवनचक्र में AI मॉडल के प्रबंधन के लिए प्रक्रियाओं और प्रणालियों को विकसित करना शामिल है। 3) AI एप्लिकेशन सुरक्षा - मॉडल को साइबर खतरों से सुरक्षित और संरक्षित रखने के लिए। 4) मॉडल गोपनीयता - गोपनीयता कानूनों (डेटा उद्देश्य/भंडारण सीमाएं, डेटा न्यूनीकरण/सुरक्षा सिद्धांत) के अनुसार डेटा प्रवाह का प्रबंधन करके AI मॉडल को प्रशिक्षित या परीक्षण करने के लिए उपयोग किए जाने वाले डेटा की सुरक्षा करना।


बेहतर एआई गवर्नेंस के लिए उठाए जाने वाले कदम

  • AI सिस्टम में बेहतर दृश्यता - AI मॉडल खोजें और उन्हें सूचीबद्ध करें। यहाँ उद्देश्य व्यवसायों को सार्वजनिक क्लाउड, निजी वातावरण और तृतीय-पक्ष ऐप में उपयोग किए जाने वाले सभी AI मॉडल की पहचान करके और उनका विवरण रिकॉर्ड करके उनके AI उपयोग का पूर्ण और व्यापक अवलोकन प्रदान करना है। इसमें मॉडल के उद्देश्य, प्रशिक्षण डेटा, आर्किटेक्चर, इनपुट, आउटपुट और अनिर्दिष्ट या अस्वीकृत AI मॉडल सहित इंटरैक्शन शामिल हैं। इस जानकारी का केंद्रीकृत कैटलॉग बनाने से पारदर्शिता, शासन और AI के प्रभावी उपयोग में वृद्धि होती है, जिससे बेहतर निर्णय और जोखिम प्रबंधन में सहायता मिलती है। यह AI अनुप्रयोगों की पूरी श्रृंखला को प्रकट करने और संगठन के भीतर परिचालन संबंधी बाधाओं को दूर करने के लिए आवश्यक है।


  • व्यापक जोखिम मूल्यांकन - जोखिमों का आकलन करें और AI मॉडल को वर्गीकृत करें। यहाँ उद्देश्य पूर्व-विकास और विकास चरणों में उनके AI सिस्टम के जोखिमों का आकलन करना और जोखिम शमन चरणों को लागू करना है। इसमें मॉडल कार्ड का लाभ उठाना शामिल है जो मॉडल विवरण, इच्छित उपयोग, सीमाएँ और नैतिक विचारों सहित AI मॉडल के लिए पूर्वनिर्धारित जोखिम मूल्यांकन प्रदान करते हैं। ये जोखिम रेटिंग विषाक्तता, दुर्भावना, पूर्वाग्रह, कॉपीराइट संबंधी विचार, भ्रम जोखिम और यहाँ तक कि ऊर्जा खपत और अनुमान रनटाइम के संदर्भ में मॉडल दक्षता जैसे पहलुओं को कवर करने वाले व्यापक विवरण प्रदान करती हैं। इन रेटिंग के आधार पर संगठन यह तय कर सकते हैं कि किन मॉडलों को तैनाती और उपयोग के लिए मंजूरी देनी है, किन मॉडलों को ब्लॉक करना है और किन मॉडलों को उपभोग से पहले अतिरिक्त सुरक्षा की आवश्यकता है।


  • पारदर्शी डेटा अभ्यास - AI प्रवाह के लिए डेटा को मैप और मॉनिटर करें। प्रशिक्षण, ट्यूनिंग और अनुमान के लिए डेटा AI सिस्टम में प्रवाहित होता है और आउटपुट के रूप में डेटा AI सिस्टम से बाहर निकलता है। यह व्यवसायों को उनके AI मॉडल और AI सिस्टम के आसपास के पूरे संदर्भ को उजागर करने की अनुमति देता है। यह AI मॉडल और सिस्टम को संबंधित डेटा स्रोतों और सिस्टम, डेटा प्रोसेसिंग, SaaS एप्लिकेशन, संभावित जोखिमों और अनुपालन दायित्वों से मैप करता है। यह व्यापक मानचित्रण गोपनीयता, अनुपालन, सुरक्षा और डेटा टीमों को निर्भरता की पहचान करने, विफलता के संभावित बिंदुओं को इंगित करने और यह सुनिश्चित करने में सक्षम बनाता है कि AI शासन प्रतिक्रियाशील के बजाय सक्रिय है।


  • मजबूत सुरक्षा नियंत्रण - डेटा को AI नियंत्रणों में लागू करें। यह AI मॉडल में डाले गए और उनसे उत्पन्न किए गए डेटा की सुरक्षा और गोपनीयता के लिए सख्त नियंत्रणों की स्थापना की अनुमति देता है। ऐसे नियंत्रणों में क्रमशः सुरक्षा ढांचे और गोपनीयता कानूनों द्वारा अनिवार्य डेटा सुरक्षा और गोपनीयता नियंत्रण शामिल हैं। उदाहरण के लिए, डेटासेट से पहचान योग्य मानों को हटाने के लिए रेडक्शन या अनामीकरण तकनीकें लागू की जा सकती हैं। यह एंटरप्राइज़ डेटा नीतियों और उपयोगकर्ता अधिकारों के साथ संरेखित करते हुए AI मॉडल में डेटा के सुरक्षित अंतर्ग्रहण को सुनिश्चित करता है। यदि संवेदनशील डेटा LLM मॉडल में अपना रास्ता खोज लेता है तो इसे सुरक्षित करना बेहद मुश्किल हो जाता है। इसी तरह, यदि एंटरप्राइज़ डेटा को वेक्टर फ़ॉर्म में बदल दिया जाता है, तो इसे सुरक्षित करना अधिक चुनौतीपूर्ण हो जाता है। डेटा निर्माण और आउटपुट पक्ष पर, AI इंटरैक्शन की सुरक्षा के लिए बाहरी हमलों, दुर्भावनापूर्ण आंतरिक उपयोग और गलत कॉन्फ़िगरेशन के खिलाफ सावधानी बरतने की आवश्यकता होती है। AI सहायकों, बॉट और एजेंटों के साथ सुरक्षित बातचीत सुनिश्चित करने के लिए, हानिकारक संकेतों, पुनर्प्राप्ति और प्रतिक्रियाओं को फ़िल्टर करने के लिए LLM फ़ायरवॉल को तैनात किया जाना चाहिए। ये फायरवॉल्स, LLMs के लिए OWASP टॉप 10 और NIST AI RMF फ्रेमवर्क में उजागर की गई विभिन्न कमजोरियों से बचाव करने में सक्षम होने चाहिए, जिनमें त्वरित इंजेक्शन हमले और डेटा एक्सफिलट्रेशन हमले शामिल हैं।


  • विनियामक ढाँचों का सजग अनुपालन - विनियमों का अनुपालन करें। AI सिस्टम का उपयोग करने वाले व्यवसायों को AI-विशिष्ट विनियमों और मानकों के साथ-साथ डेटा गोपनीयता दायित्वों का अनुपालन करना चाहिए जो AI के उपयोग से संबंधित हैं। इस मांग वाली अनुपालन प्रक्रिया को कारगर बनाने के लिए, व्यवसाय AI के अनुरूप व्यापक अनुपालन स्वचालन का लाभ उठा सकते हैं। ऐसी प्रणाली वैश्विक AI विनियमों और ढाँचों की एक विस्तृत सूची प्रदान करती है, जिसमें NIST AI RMF और EU AI अधिनियम शामिल हैं। यह अपने ढाँचे के भीतर अलग-अलग AI परियोजनाओं के निर्माण की सुविधा प्रदान करता है, जिससे उपयोगकर्ता प्रत्येक परियोजना के लिए आवश्यक नियंत्रणों की पहचान और उन्हें लागू कर सकते हैं। इस प्रक्रिया में स्वचालित जाँच और मूल्यांकन दोनों शामिल हैं, जिसके लिए अनुपालन सुनिश्चित करने के लिए समग्र दृष्टिकोण प्रदान करने वाले हितधारकों से इनपुट की आवश्यकता होती है।


एआई गवर्नेंस को लागू करने के लाभ

जो उद्यम एआई गवर्नेंस को सफलतापूर्वक लागू करेंगे, उन्हें सफलता मिलेगी

क) उनकी स्वीकृत और अस्वीकृत एआई प्रणालियों में पूर्ण पारदर्शिता

ख) एआई जोखिमों की स्पष्ट दृश्यता

ग) एआई और डेटा का मानचित्रण

d) मजबूत स्वचालित AI + डेटा नियंत्रण

ई) वैश्विक एआई विनियमों का अनुपालन।


कुल मिलाकर, हमें AI के सुरक्षित उपयोग को सुनिश्चित करने की आवश्यकता है। सुरक्षा को प्राथमिकता देने से तत्काल अल्पावधि में व्यापार लाभ थोड़ा कम हो सकता है, लेकिन मध्यम और दीर्घकालिक लाभ पर्याप्त हैं।