जब तक कोई वास्तविक चट्टान (और एक के ऊपर नहीं) के नीचे रह रहा है, तो आपने शायद चैटजीपीटी के बारे में सुना होगा - अभूतपूर्व, डायस्टोपियन-निर्माण संवाद-आधारित एआई सिस्टम।
इसके अत्यधिक संवादात्मक तरीके से इसके उपयोगकर्ता इसे इसकी सीमा तक धकेलते हैं।
अधिकांश वास्तविक समय में कोड लिखने या अचूक, मूल निबंध तैयार करने की क्षमता से विस्मय में हैं।
एक नज़र में, चैटजीपीटी काफी प्रभावशाली है। जबकि यह तकनीक अब कुछ वर्षों से अस्तित्व में है, यहां तक कि अन्य कंपनियों ने भी अतीत में इसी तरह की पहल शुरू की थी, चैटजीपीटी छह दिनों के भीतर एक मिलियन उपयोगकर्ता प्राप्त करने में सक्षम थी।
उत्पाद के नजरिए से, यह निश्चित रूप से प्रमाण था कि चैटजीपीटी ने बाजार के भीतर एक जरूरत को पूरा किया। यह गिग इकॉनमी को हमेशा के लिए बदल देगा, क्योंकि यह वास्तविक समय में अधिक संक्षिप्त और कार्रवाई योग्य परिणामों के साथ एक इंटरैक्टिव Google खोज को अनिवार्य रूप से सक्षम बनाता है।
हालांकि, एआई की बातचीत अक्सर नैतिकता के अनुरूप होती है - कई लोग इस मॉडल के सभी के लिए उपलब्ध होने के संभावित खतरों पर सवाल उठाने लगे।
जैसा कि अतीत में दिखाया गया है, मनुष्य एआई को ऐसी बातें कहने के लिए सिखाते हैं, जिन्हें बोलना नहीं चाहिए, सोचना तो दूर की बात है।
अधिक दार्शनिक स्तर पर, चैटजीपीटी के लिए सत्य का स्रोत क्या है?
अन्य, भावी GPT-आधारित प्रणालियों के बारे में क्या?
हम यह कैसे सुनिश्चित करते हैं कि एआई की सुरक्षा से समझौता किए बिना कौन से पक्षपात, डेटासेट और मापदंडों को ध्यान में रखा जा रहा है?
इन चिंताओं ("सीमाओं" के रूप में लिखी गई) वास्तव में OpenAI द्वारा स्वीकार की जाती हैं
अपरिहार्य एआई चैटबॉट विद्रोह को हल करने से पहले, एक संक्षिप्त विवरण के लिए अनुमति दें कि यह वास्तव में एक पक्षी की दृष्टि से कैसे काम करता है।
ChatGPT GPT-3.5 पर आधारित है - GPT-3 का थोड़ा नया, बेहतर संस्करण।
GPT का मतलब जनरेटिव प्री-प्रशिक्षित ट्रांसफॉर्मर 3 है।
"यह एक स्वत: प्रतिगामी भाषा मॉडल है जो मानव-समान पाठ का निर्माण करने के लिए गहन शिक्षा का उपयोग करता है। एक प्रारंभिक पाठ को संकेत के रूप में देखते हुए, यह पाठ का उत्पादन करेगा जो संकेत को जारी रखता है। -
सरल शब्दों में, यह एक भविष्य कहनेवाला, भाषा प्रसंस्करण मॉडल है जिसे विशेष रूप से मानव-पठनीय परीक्षणों का उत्पादन करने के लिए प्रशिक्षित किया जाता है। ट्यूरिंग टेस्ट का उपयोग करके इस धारणा का परीक्षण किया जाता है, लक्ष्य यह है कि एआई-जनित पाठ अपने मानव-लिखित समकक्ष से अप्रभेद्य होना चाहिए।
GPT को सही उत्तर की भविष्यवाणी करने का प्रयास करना है। जब मॉडल को प्रशिक्षित किया जा रहा होता है, तो वह अपने आंतरिक चर को तब तक ट्यून करता रहता है जब तक कि उसे सही उत्तर नहीं मिल जाता।
मॉडल को प्रशिक्षित करते समय कई कारकों को ध्यान में रखा जाता है, जैसे शब्द के ध्यान का ट्रैक रखना - यानी वाक्य में शब्द का प्रभाव/रैंकिंग।
अधिक तकनीकी स्तर पर यह कैसे काम करता है, इस बारे में अधिक जानकारी के लिए पढ़ें
ChatGPT इस कार्यक्षमता को वास्तव में जनता के लिए उपयोगकर्ता के अनुकूल तरीके से खोलने वाला पहला था, जो कि इसके परवलयिक विकास को देखते हुए एक शानदार और डरावनी चीज है।
GPT- आधारित AI से आने वाले अधिकांश मुद्दे जैसे ChatGPT इस उद्धरण के अंतर्गत आते हैं:
"मूल रूप से, GPT-3, अन्य AI मॉडल की तरह, केवल उतना ही अच्छा है जितना डेटा पर इसे प्रशिक्षित किया गया है और मनुष्य इस डेटा को बनाते हैं। वही विश्वास, पूर्वाग्रह, त्रुटियां और झूठ जो हम रखते हैं, AI प्रतिक्रियाओं में परिलक्षित होते हैं। और चूंकि चैटजीपीटी जैसे उपकरण बुद्धिमान, उद्देश्यपूर्ण और आत्मविश्वासी के रूप में सामने आते हैं, इसलिए हम यह मानने लगते हैं कि ये मॉडल हमें क्या देते हैं।" -
इन मॉडलों के साथ प्राथमिक समस्या वह डेटा है जो इसे खिलाया जा रहा है। एआई को उपयोगी बनाने से पहले, इसे अरबों शब्दों और मापदंडों के खिलाफ उपभोग, बातचीत और परीक्षण करना पड़ता है। विशिष्ट जानकारी रखने के लिए इन डेटासेट को आमतौर पर फ़िल्टर और क्यूरेट किया जाता है।
चैटजीपीटी के मामले में, यह अपना डेटा इंटरनेट से प्राप्त करता है - जो इसे अपनी उंगलियों पर विभिन्न समाधानों की अधिकता के लिए सक्षम बनाता है (क्या एआई के पास उंगलियां हैं?)।
हालाँकि, इसका अर्थ यह भी है कि यह इंटरनेट के कुछ गहरे पहलुओं और इसके पूर्वाग्रहों को अपने साथ ला सकता है।
समस्या एआई के साथ ही नहीं है - यह इसे बनाने वाले प्रशिक्षण और डेटा संग्रह प्रक्रियाओं को ट्रैक कर रहा है।
यदि कोई निश्चितता और पारदर्शिता के साथ, समय के साथ एक मॉडल प्रशिक्षण के इतिहास, उसके स्रोतों और उसकी समग्र यात्रा को ट्रैक और ट्रेस कर सकता है, तो इससे उत्पन्न होने वाले परिणामों के विश्वास पर बहुत बेहतर निर्धारण किया जा सकता है।
इस तरह, अधिक केंद्रित मॉडल में मूल्य अधिक स्पष्ट होगा जिनके पास एक विशिष्ट उद्देश्य, मकसद और क्यूरेटेड डेटा है।
स्पष्ट होने के लिए, OpenAI को पता है कि मॉडल पक्षपाती हो सकते हैं, और सत्य का एक मजबूत स्रोत किसी बिंदु पर स्थापित करने की आवश्यकता है।
और एक वितरित, दोष-सहिष्णु बहीखाता की तुलना में एआई के निर्माण का एक अपरिवर्तनीय, पारदर्शी और कालानुक्रमिक रिकॉर्ड रखने के लिए कौन सी बेहतर तकनीक है?
अधिकांश एआई को कार्यक्षमता के "ब्लैक बॉक्स" के रूप में देखते हैं, जहां डेटा की उत्पत्ति, जहां इसे इकट्ठा किया गया था, किन परिस्थितियों में, और यह कैसे संचालित होता है, अज्ञात रहता है।
हालाँकि - क्या होगा यदि जब भी एक नया AI बनाया गया था, तो प्रत्येक प्रासंगिक प्रक्रिया को जनता के देखने के लिए एक बहीखाता में प्रस्तुत किया गया था, इसलिए वे जानते हैं कि AI दिए गए डेटा के आधार पर कैसे संचालित होता है?
ब्लॉकचैन सत्य का सत्यापन योग्य, निष्पक्ष रिकॉर्ड रखने में अच्छे हैं।
जाहिर है, यह केवल चैटजीपीटी जैसे सार्वजनिक-सामना करने वाले एआई के लिए होगा। डेटासेट से लेकर कौन शामिल था, आवश्यक पैरामीटर से लेकर किसी भी संभावित पक्षपात तक सब कुछ ऑन-चेन उपस्थिति के रूप में रखा जा सकता है।
जैसे-जैसे एआई उत्तरोत्तर प्रशिक्षित होता है और बेहतर होता जाता है, यह वास्तविक समय में बहीखाता में भी अपडेट हो जाता है। इस तरह, यहां तक कि इसके प्रशिक्षण के लिए जिम्मेदार डेवलपर्स भी प्रदर्शन के मामले में एआई कैसे कर रहे हैं, इसका स्पष्ट, कालानुक्रमिक दृष्टिकोण प्राप्त करने में सक्षम होंगे।
इससे भी महत्वपूर्ण बात यह है कि लेजर एआई के निर्माण के उद्गम द्वारा समर्थित सत्य का प्रत्यक्ष स्रोत प्रदान करेगा।
दूसरे शब्दों में - हम एआई को इसके निर्माण से ही जवाबदेह रखते हैं, इसकी उत्पत्ति, उद्देश्यों को ट्रैक करते हैं, और प्रशिक्षण स्तर से यह वास्तव में कैसे प्रभावित हुआ।
यह डेटा की निरंतरता और उत्पत्ति सुनिश्चित करेगा। डेटा अखंडता हमेशा कम होती है। एक रिकॉर्ड कीपिंग सिस्टम का उपयोग करते हुए, जैसे ब्लॉकचेन, हम एआई के लिए डेटा के प्रत्येक बाइट को उसके मूल में ट्रेस कर सकते हैं।
यह किसी भी पक्षपात की पहचान करने में मदद करेगा जो एआई के ब्लैक बॉक्स में पता लगाना मुश्किल हो सकता है और "दुर्भावनापूर्ण" एआई से आने वाले डेटा के झूठे प्रचार को रोक सकता है।
इसके बारे में एक सत्यापन चेकमार्क की तरह सोचें। अगर एआई के पास चेकमार्क है, तो यह मान्य है। यदि नहीं, तो इसकी वैधता पर संदेह करने का कारण है।
जैसा कि पोलकडॉट जैसे ब्लॉकचेन पर दिखाया गया है, यह भी पूरी तरह से संभव है कि संगठन चेन पर कुछ नियमों और तंत्रों पर मतदान करें। एआई के लिए एक समान अवधारणा की जा सकती है, जहां इसकी वैधता, डेटा की अखंडता, और अधिक के संबंध में विभिन्न कारकों को निर्धारित करने के लिए वोट हो सकते हैं।
आखिरकार, ये मॉडल केवल उतने ही अच्छे हैं जितना उन्हें डेटा खिलाया जाता है।
समय के साथ, डेटा जटिल हो सकता है। स्रोत को कौन नियंत्रित करता है, क्या कहना है कि स्रोत किसी ऐसी चीज़ में बदल जाता है जो हानिकारक हो सकता है?
दी गई, OpenAI के पास अपना मॉडरेशन API है - एक अन्य AI जो हानिकारक मानी जाने वाली चीजों का पता लगाता है, जो सही दिशा में एक बहुत ही मूल्यवान कदम है।
हालाँकि, तथ्यात्मक साक्ष्य के लिए भी, यानी, इतिहास, इंटरनेट-आधारित डेटा को कई बार जाँचने और जाँचने की आवश्यकता होती है।
चूंकि अधिक जनता इन सेवाओं पर भरोसा करती है, विश्वसनीय जानकारी सुनिश्चित करना महत्वपूर्ण होगा।
इसमें कोई शक नहीं है कि एआई दुनिया को बदल देगा। चैटजीपीटी के साथ, इसने जनता को दिखाया कि कैसे यह तकनीक रातोंरात उनकी आजीविका को बदल सकती है।
एआई की अखंडता सुनिश्चित करना अगला कदम है। इसके पास आने वाले डेटा को सत्यापित करना, इसे किसने विकसित किया, और इसके सटीक उद्देश्यों/लक्ष्यों को नैतिक मानकों को बनाए रखने और बदले में, ऐसे मॉडलों में जनता के विश्वास को बनाए रखने में महत्वपूर्ण होगा।
यह वास्तव में अब वेब3 जैसा लगने लगा है!