क्या आर्टिफिशियल इंटेलिजेंस उतना ही डरावना है जितना हम मानते हैं, या यह सिर्फ बड़े तकनीकी दिग्गज हैं जिनके पास अनैतिक डेटा उपयोग का ट्रैक रिकॉर्ड है, जो एआई का उपयोग उसी तरह जारी रखेंगे जैसे वे हमारे अन्य डेटा का उपयोग करते रहे हैं: जितना संभव हो सके अपनी जेबें भरें।
यहां तक कि आर्टिफिशियल इंटेलिजेंस की सबसे प्रारंभिक समझ रखने वाले लोग भी समझते हैं कि इसकी ताकत डेटा को समझने की क्षमता में निहित है, और यदि आप चाहते हैं कि भाषा मॉडल या एआई किसी विशिष्ट उद्देश्य के लिए अधिक स्मार्ट या प्रशिक्षित हो, तो मुख्य तत्व डेटा है। यहीं पर एआई और बिग टेक अपना क्रॉसओवर शुरू करते हैं, क्योंकि तकनीकी दिग्गजों के पास अपेक्षित रूप से क्लाउड डेटा का सबसे बड़ा भंडार होता है जिसका उपयोग एआई मॉडल को प्रशिक्षित और विकसित करने के लिए किया जा सकता है।
2022 के बाद से, चैट जीपीटी का पहला संस्करण जारी होने के तुरंत बाद, Google , Microsoft और Amazon सभी ने अरबों का निवेश किया और हमारे समय की सबसे उन्नत AI विकास कंपनियों के साथ मजबूत संबंध बनाए।
ऐसे सौदों में भी, कर्मचारी अक्सर खुद को बड़ी तकनीक में एआई के उपयोग से संबंधित नैतिक दुविधाओं में पाते हैं। डेरियो अमोदेई ने माइक्रोसॉफ्ट की भागीदारी पर सुरक्षा और नैतिक चिंताओं के कारण ओपन एआई छोड़ दिया। कुछ ही समय बाद, उन्होंने लगभग $ लेकर दूसरी दुष्ट सौतेली बहन की ओर मुड़ने के लिए एंथ्रोपिक की स्थापना की
बिग टेक कंपनियों के अशांत अतीत (और वर्तमान), गोपनीयता नैतिकता और आर्टिफिशियल इंटेलिजेंस के लिए उनके समर्थन को देखते हुए, इस बिंदु पर चिंता करना संभव है कि समस्या एआई के विकास में नहीं है, बल्कि गोपनीयता संबंधी चिंताओं में है जो हम से सभी परिचित हैं.
तकनीकी दिग्गजों, गोपनीयता संबंधी चिंताओं, एआई भाषा मॉडल की क्षमताओं और सरकारी नियमों के बीच संबंधों की जांच करते हुए, दुर्भावनापूर्ण इरादों वाली संस्थाओं द्वारा उपयोग किए जाने पर एआई की उच्च क्षमता से जुड़े जोखिमों पर विचार करना महत्वपूर्ण है।
भाषा शिक्षण मॉडल (एलएलएम) या आर्टिफिशियल इंटेलिजेंस, जैसा कि ज्यादातर लोग जानते हैं, एल्गोरिदम के एक समूह का एक विशाल संयोजन है जो एक साथ, प्रशिक्षित की गई जानकारी के आधार पर परिणाम बनाने के लिए स्वायत्त रूप से कार्य करने में सक्षम हैं।
एआई उतना नया उपकरण नहीं है जितना अधिकांश लोग सोचते हैं; हमारे रोजमर्रा के जीवन में कई AI टूल का उपयोग किया जाता है। हमारी कारों के मानचित्रों से लेकर सोशल मीडिया विज्ञापनों तक, हमारी नेटफ्लिक्स सिफारिशों तक, ये सभी हमारी दिनचर्या और आदतों को जानने के लिए एआई टूल का उपयोग करते हैं, और सिफारिशें करते हैं और अनुमान लगाते हैं कि हम किससे जुड़ सकते हैं।
सही ढंग से उपयोग किए जाने पर, आर्टिफिशियल इंटेलिजेंस में हमारे दैनिक जीवन में प्रौद्योगिकी के साथ बातचीत करने के तरीके को बदलने की शक्ति है। यह न केवल हमारे जीवन को अधिक सुविधाजनक बना सकता है, बल्कि यह उन लोगों के लिए पहुंच को भी बदल सकता है जो अन्यथा वास्तविकता के साथ उतनी आसानी से बातचीत करने में सक्षम नहीं हैं। उदाहरण के लिए, जो लोग दृष्टिबाधित हैं, वे ऐसा कर सकते हैं
ई-कॉमर्स, स्वास्थ्य देखभाल प्रौद्योगिकी, वित्त, कृषि और शिक्षा सहित कई अलग-अलग प्रक्रियाओं को सुव्यवस्थित करने के लिए एआई का उपयोग पहले से ही किया जा रहा है। लोगों का काम आसान बनाना. स्वचालित कार्यों को करने में सक्षम होने का मतलब है कि हम मनुष्य के रूप में पहले से ही काम करते हैं, इसका मतलब है कि हमें सांसारिक कार्यों पर इतना समय खर्च नहीं करना पड़ता है, जो कई लोगों की नौकरियों का एक बड़ा हिस्सा है, और उन क्षेत्रों पर ध्यान केंद्रित करना है जहां मानव प्रतिभा सर्वोपरि है।
उदाहरण के लिए, ब्रॉडवे पर निर्माण और शहर में यातायात रुकने को देखते हुए, एआई ने आज काम करने के लिए बेहतर आवागमन मार्ग तय करना मेरे लिए आसान बना दिया है, जिसका मतलब है कि मैं 10 मिनट की अतिरिक्त नींद ले सकता हूं और जाने से पहले अपने लिए कॉफी बना सकता हूं। , जिससे मेरा दिन काफी बेहतर हो जाएगा और मैं काम में अधिक उत्पादक बन सकूंगा।
याद रखने योग्य बात यह है कि, अन्य उपकरणों के विपरीत, जो अपने कार्यों को नियंत्रित करने के लिए पूरी तरह से चिप्स पर निर्भर होते हैं, एआई को बड़ी मात्रा में जानकारी पर प्रशिक्षित किया जाता है, जिसे वह तब सीखता है और जब हम उसे कुछ संकेत देते हैं तो उसे याद करने में सक्षम होता है।
मोटे तौर पर यहीं से एआई और बड़ी तकनीक के विकास के बीच संबंध शुरू होता है, क्योंकि Google, अमेज़ॅन और माइक्रोसॉफ्ट के पास मानव डेटा के कुछ सबसे बड़े भंडार हैं (संभवतः आपके सहित) जिनका वे अपने एआई मॉडल को प्रशिक्षित करने के लिए उपयोग कर सकते हैं और कर रहे हैं।
यह थोड़ी चिंताजनक बात है कि जिन कंपनियों ने यह साबित कर दिया है कि वे हमारे डेटा के मामले में सबसे कम भरोसेमंद हैं, वही कंपनियां और भी स्मार्ट एआई विकसित करने की दिशा में आगे बढ़ रही हैं।
कहने की जरूरत नहीं है, यह आपदा का नुस्खा जैसा लगता है। और हम, उपभोक्ताओं के पास खोने के लिए सबसे अधिक है।
तकनीकी जगत में हममें से कई लोग इस बात को लेकर सतर्क रूप से आशावादी हैं कि भविष्य के लिए जेनेरिक एआई उपकरण क्या मायने रखते हैं और हम बड़ी संभावनाओं के साथ एआई तकनीक का उपयोग करते हुए प्रेरणादायक नवाचार देखना जारी रखते हैं।
मुझे गलत मत समझो, एआई हमारी दुनिया में एक बहुत अच्छी चीज हो सकती है और वर्तमान में इसका उपयोग कई लोगों को उनके रोजमर्रा के जीवन में मदद करने के लिए महत्वपूर्ण तकनीक बनाने के लिए किया जा रहा है, लेकिन एआई के बारे में ज्यादातर लोगों की चिंताएं और आपत्तियां पर्याप्त रूप से होनी चाहिए। हमारे दैनिक जीवन में ऐसी शक्तिशाली प्रौद्योगिकी को पेश करते समय संबोधित किया गया।
चूँकि वे लाभ-केंद्रित हैं, बिग टेक दिग्गजों की अपने उपभोक्ताओं की डेटा गोपनीयता का सम्मान करने की ज़िम्मेदारी है (एक ज़िम्मेदारी जो उनके पास है)
हमने निश्चित रूप से एक देखा है
पहले से ही ऐसी घटनाएं हुई हैं जहां लोगों ने रिपोर्ट किया है कि अमेज़ॅन एलेक्सा का उपयोग करके एकत्र किए गए डेटा का अनुरोध किया गया है और बिना वारंट के कानून प्रवर्तन को दिया गया है, और आपराधिक जांच में उनके खिलाफ इस्तेमाल किया गया है।
ऐसी कई घटनाएं भी हुई हैं जहां व्यक्तिगत डेटा का उपयोग राजनीतिक एजेंडे को आगे बढ़ाने और संभावित रूप से गलत सूचना फैलाने के लिए किया गया है। बड़ी संख्या में डेटा उल्लंघनों में बड़ी तकनीकी कंपनियों द्वारा एकत्र किया गया डेटा गलत हाथों में पड़ जाता है, जिससे लाखों लोगों की व्यक्तिगत जानकारी तक आपराधिक पहुंच हो जाती है।
एआई मॉडल को प्रशिक्षित करने के लिए व्यक्तिगत डेटा का उपयोग करने से डेटा इनपुट और विनिमय की प्रक्रिया में अनधिकृत पहुंच के परिणामस्वरूप गोपनीयता उल्लंघन के साथ संभावित समस्याओं का खतरा पैदा हो जाता है। यदि एआई मॉडल को प्रशिक्षित करने के लिए उपयोग की जाने वाली डेटा की लंबी प्रक्रिया के दौरान जांच और सावधानी से नहीं संभाला जाता है, तो इसे कई बार आगे और पीछे पारित किया जा सकता है, जिससे लोगों के पास व्यक्तिगत डेटा तक अनियमित पहुंच होती है। इतनी बड़ी मात्रा में ऐसी जटिल जानकारी को संभालते समय, यह असंभव नहीं है कि सुरक्षा उपायों में चूक के परिणामस्वरूप डेटा उल्लंघन होगा जो संवेदनशील जानकारी के अनधिकृत रिलीज का कारण बनेगा।
डेटा के विविध सेट पर एआई को प्रशिक्षित करने का महत्व इसलिए है क्योंकि एआई मॉडल में प्राप्त प्रशिक्षण के आधार पर पूर्वाग्रह और भेदभाव होने की बहुत वास्तविक और पहले से अनुभव की गई संभावना है। उदाहरण के लिए चेहरे की पहचान को लें, एक एआई मॉडल का उपयोग यह पता लगाने के लिए किया जा सकता है कि किसी स्टोर में कौन चोरी कर रहा है, और तीन साल की अवधि में सुरक्षा प्रदान की जा सकती है। यदि उक्त सुरक्षा फुटेज में दिखाई देने वाले लोग मुख्य रूप से एक विशेष जाति से हैं, तो एआई मॉडल यह भविष्यवाणी करना शुरू कर सकता है कि जो कोई भी लोगों के उस विशेष समूह से बाहर है, उसके चोरी करने की अधिक संभावना है। यदि प्रशिक्षण डेटा विविध और प्रतिनिधि नहीं है, तो एआई मॉडल विविध आबादी के लिए अपनी शिक्षा को सटीक रूप से सामान्यीकृत करने के लिए संघर्ष कर सकता है।
यदि एआई मॉडल को केवल जनसांख्यिकी के एक सेट पर प्रशिक्षित किया जाता है, तो यह डेटा में पूर्वाग्रह के आधार पर भाषा मॉडल में संभावित पूर्वाग्रहों का महत्वपूर्ण जोखिम छोड़ देता है। यहां मुद्दा अपेक्षाकृत सरल है; यदि कुछ समूहों के पास अधिक व्यक्तिगत डेटा उपलब्ध है, तो हम एआई के भीतर पूर्वाग्रहों को कैसे रोक सकते हैं? इसके परिणामस्वरूप डेटा सेट के भीतर कम प्रतिनिधित्व वाले समुदायों के लिए बहिष्करण संबंधी परिणाम हो सकते हैं।
सहमति और पारदर्शिता की कमी का एक कारक यह भी है कि क्या उपयोगकर्ताओं को यह बताया गया है कि उनका डेटा एआई मॉडल के प्रशिक्षण में उपयोग के लिए एकत्र किया जा रहा है। आजकल जब हम पर लगातार सूचनाओं की बमबारी होती रहती है और हम अक्सर विकल्प संबंधी पक्षाघात का अनुभव करते हैं,
यह एक बहुत ही वास्तविक खतरा है कि ये बड़े तकनीकी दिग्गज भी साइबर हमलों के प्रति संवेदनशील हैं, जिससे बड़े पैमाने पर डेटा उल्लंघन हो सकता है।
आने वाले वर्षों में एआई तकनीक के प्रसार के साथ एक और संभावित समस्या जो हम देख सकते हैं, वह है अज्ञात डेटा की पुनः पहचान, जो फिर से संवेदनशील जानकारी को उजागर कर सकती है जो व्यक्तियों को जोखिम में डाल सकती है।
यह पूरी तरह से समझ में आता है कि बहुत से लोगों को कृत्रिम बुद्धि के बारे में कई संदेह हैं और यह श्रम बल में क्या ला सकता है, (हालांकि यह संभवतः कुछ भी नहीं बदलेगा) लेकिन मुझे लगता है कि किसी भी नई चीज के बारे में संदेह करना हमारी प्राकृतिक मानवीय प्रवृत्ति है। , हम भूल जाते हैं कि समस्या हमेशा से यहीं रही होगी।
यह पूरी तरह से औसत कर्मचारी की गलती नहीं है, इन बहु-अरब डॉलर के निगमों ने शायद यह सुनिश्चित करने के लिए काफी प्रयास किया है कि हम उनसे उतनी नफरत न करें जितनी हमें करनी चाहिए, लेकिन लोगों को राक्षसी रूप में देखना अभी भी काफी दिलचस्प है वह उपकरण जो हमला करता है, न कि वह हाथ जो उसे चलाता है। भले ही आपको एआई की समझ हो या नहीं, आप शायद अभी भी इन तकनीकी दिग्गजों की डेटा सुरक्षा विफलताओं के बारे में जानते हैं, और इसलिए आश्चर्य नहीं होना चाहिए जब अगले 5 वर्षों में हम एआई के अनैतिक उपयोग के बारे में विवाद देखेंगे। अपने हर कदम पर नज़र रखें और उससे पैसे कमाएँ।
अनस्प्लैश पर आदि गोल्डस्टीन द्वारा मुख्य छवि