paint-brush
स्टारबक्स कॉफी की कीमत के लिए अपने निजी चैटजीपीटी मॉडल को कैसे प्रशिक्षित करेंद्वारा@zhoujieguang
3,162 रीडिंग
3,162 रीडिंग

स्टारबक्स कॉफी की कीमत के लिए अपने निजी चैटजीपीटी मॉडल को कैसे प्रशिक्षित करें

द्वारा Zhou Jieguang12m2023/06/18
Read on Terminal Reader

बहुत लंबा; पढ़ने के लिए

एक कप स्टारबक्स और दो घंटे के समय के साथ, आप अपने खुद के प्रशिक्षित ओपन-सोर्स बड़े पैमाने के मॉडल के मालिक हो सकते हैं।
featured image - स्टारबक्स कॉफी की कीमत के लिए अपने निजी चैटजीपीटी मॉडल को कैसे प्रशिक्षित करें
Zhou Jieguang HackerNoon profile picture
0-item
1-item
2-item


एक कप स्टारबक्स और दो घंटे के समय के साथ, आप अपने खुद के प्रशिक्षित ओपन-सोर्स बड़े पैमाने के मॉडल के मालिक हो सकते हैं। चिकित्सा, प्रोग्रामिंग , स्टॉक ट्रेडिंग और प्रेम सलाह जैसे विभिन्न कौशलों को बढ़ाने के लिए विभिन्न प्रशिक्षण डेटा दिशाओं के अनुसार मॉडल को ठीक-ठीक किया जा सकता है, जिससे आपका बड़े पैमाने का मॉडल आपके बारे में अधिक "समझ" बना सके। आइए ओपन-सोर्स डॉल्फिन शेड्यूलर द्वारा सशक्त ओपन-सोर्स बड़े पैमाने के मॉडल को प्रशिक्षित करने का प्रयास करें!

पहचान

चैटजीपीटी का लोकतंत्रीकरण

ChatGPT के जन्म ने निस्संदेह हमें AI के भविष्य के लिए प्रत्याशा से भर दिया है। इसकी परिष्कृत अभिव्यक्ति और शक्तिशाली भाषा समझने की क्षमता ने दुनिया को चकित कर दिया है। हालाँकि, क्योंकि ChatGPT एक सेवा (SaaS) के रूप में एक सॉफ़्टवेयर के रूप में प्रदान किया जाता है, व्यक्तिगत गोपनीयता लीक और कॉर्पोरेट डेटा सुरक्षा के मुद्दे प्रत्येक उपयोगकर्ता और कंपनी के लिए चिंता का विषय हैं। अधिक से अधिक खुले स्रोत वाले बड़े पैमाने के मॉडल उभर रहे हैं, जिससे व्यक्तियों और कंपनियों के लिए अपने स्वयं के मॉडल रखना संभव हो गया है। हालांकि, ओपन-सोर्स बड़े पैमाने के मॉडल के साथ आरंभ करना, अनुकूलन करना और उपयोग करना प्रवेश के लिए उच्च बाधाएं हैं, जिससे सभी के लिए आसानी से उनका उपयोग करना मुश्किल हो जाता है। इसे संबोधित करने के लिए, हम Apache DolphinScheduler का उपयोग करते हैं, जो ओपन-सोर्स बड़े पैमाने के मॉडल के प्रशिक्षण, ट्यूनिंग और तैनाती के लिए एक-क्लिक समर्थन प्रदान करता है। यह हर किसी को बहुत कम लागत पर और तकनीकी विशेषज्ञता के साथ अपने डेटा का उपयोग करके अपने बड़े पैमाने के मॉडल को प्रशिक्षित करने में सक्षम बनाता है।

इसके लिए कौन है? - स्क्रीन के सामने कोई भी

हमारा लक्ष्य न केवल पेशेवर एआई इंजीनियरों के लिए है, बल्कि जीपीटी में रुचि रखने वाले किसी भी व्यक्ति के लिए एक मॉडल होने की खुशी का आनंद लेना है जो उन्हें बेहतर "समझता" है। हमारा मानना है कि हर किसी के पास अपने एआई सहायक को आकार देने का अधिकार और क्षमता है। Apache DolphinScheduler का सहज ज्ञान युक्त कार्यप्रवाह इसे संभव बनाता है। एक बोनस के रूप में, Apache DolphinScheduler एक बड़ा डेटा और AI शेड्यूलिंग टूल है, जिसके GitHub पर 10,000 से अधिक सितारे हैं। यह Apache Software Foundation के तहत एक शीर्ष-स्तरीय परियोजना है, जिसका अर्थ है कि आप इसे मुफ्त में उपयोग कर सकते हैं और बिना किसी व्यावसायिक मुद्दों की चिंता किए कोड को संशोधित कर सकते हैं।


चाहे आप एक उद्योग विशेषज्ञ हैं जो अपने स्वयं के डेटा के साथ एक मॉडल को प्रशिक्षित करना चाहते हैं, या एक एआई उत्साही हैं जो गहन शिक्षण मॉडल के प्रशिक्षण को समझना और तलाशना चाहते हैं, हमारा वर्कफ़्लो आपके लिए सुविधाजनक सेवाएं प्रदान करेगा। यह जटिल पूर्व-प्रसंस्करण, मॉडल प्रशिक्षण और अनुकूलन चरणों को हल करता है, और केवल 1-2 घंटे के सरल संचालन की आवश्यकता होती है, साथ ही 20 घंटे चलने का समय अधिक "समझ" चैटजीपीटी बड़े पैमाने पर मॉडल बनाने के लिए।

तो चलिए शुरू करते हैं ये जादुई सफर! आइए सभी के लिए एआई का भविष्य लेकर आएं।

चैटजीपीटी बनाने के लिए केवल तीन चरण जो आपको बेहतर "समझते" हैं

  1. 3090 के स्तर के बराबर कम कीमत पर एक GPU कार्ड किराए पर लें
  2. डॉल्फिन शेड्यूलर शुरू करें
  3. DolphinScheduler पेज पर प्रशिक्षण वर्कफ़्लो और परिनियोजन वर्कफ़्लो पर क्लिक करें और सीधे अपने ChatGPT का अनुभव करें

3090 ग्राफ़िक्स कार्ड के साथ होस्ट तैयार करना

सबसे पहले, आपको 3090 ग्राफिक्स कार्ड की आवश्यकता है। यदि आपके पास डेस्कटॉप कंप्यूटर है, तो आप इसे सीधे उपयोग कर सकते हैं। यदि नहीं, तो ऑनलाइन जीपीयू के साथ किराए के लिए कई होस्ट हैं। यहां हम आवेदन करने के लिए एक उदाहरण के रूप में AutoDL का उपयोग करते हैं। https://www.autodl.com/home खोलें, रजिस्टर करें और लॉग इन करें। उसके बाद, आप स्क्रीन पर दिखाए गए चरण 1, 2 और 3 के अनुसार कंप्यूटिंग पावर मार्केट में संबंधित सर्वर चुन सकते हैं।

छवि स्रोत: लेखक का अपना चित्र


यहां, RTX 3090 ग्राफिक्स कार्ड चुनने की सिफारिश की गई है, जो उच्च लागत-प्रदर्शन अनुपात प्रदान करता है। टेस्टिंग के बाद पता चला है कि RTX 3090 को एक से दो लोग ऑनलाइन टास्क के लिए इस्तेमाल कर सकते हैं। यदि आप तेज प्रशिक्षण और प्रतिक्रिया गति चाहते हैं, तो आप अधिक शक्तिशाली ग्राफिक्स कार्ड का विकल्प चुन सकते हैं। प्रशिक्षण में लगभग 20 घंटे लगते हैं, जबकि परीक्षण में लगभग 2-3 घंटे लगते हैं। 40 युआन के बजट के साथ, आप इसे आसानी से कर सकते हैं।

आईना

कम्युनिटी मिरर पर क्लिक करें, और फिर नीचे दिए लाल बॉक्स WhaleOps/dolphinscheduler-llm/dolphinscheduler-llm-0521 डालें। आप नीचे दिखाए अनुसार छवि का चयन कर सकते हैं। वर्तमान में, केवल V1 संस्करण उपलब्ध है। भविष्य में, जैसे ही नए संस्करण जारी होते हैं, आप नवीनतम संस्करण चुन सकते हैं।

छवि स्रोत: लेखक का अपना चित्र


यदि आपको मॉडल को कई बार प्रशिक्षित करने की आवश्यकता है, तो हार्ड डिस्क की क्षमता को लगभग 100GB तक विस्तारित करने की अनुशंसा की जाती है।


इसे बनाने के बाद, निम्न छवि में दिखाए गए प्रगति बार के पूर्ण होने की प्रतीक्षा करें।

डॉल्फिन शेड्यूलर शुरू करें

इंटरफ़ेस पर अपने स्वयं के ओपन-सोर्स बड़े पैमाने के मॉडल को तैनात और डिबग करने के लिए, आपको डॉल्फ़िन शेड्यूलर सॉफ़्टवेयर शुरू करने की आवश्यकता है, और हमें निम्नलिखित कॉन्फ़िगरेशन कार्य करने की आवश्यकता है:

सर्वर तक पहुँचने के लिए

दो तरीके उपलब्ध हैं। आप वह चुन सकते हैं जो आपकी पसंद के अनुरूप हो:

  1. JupyterLab के माध्यम से लॉग इन करें (गैर-कोडर्स के लिए):

नीचे दिखाए गए JupyterLab बटन पर क्लिक करें।

छवि स्रोत: लेखक का अपना चित्र


पेज ज्यूपिटरलैब पर रीडायरेक्ट करेगा; वहां से, आप प्रवेश करने के लिए "टर्मिनल" पर क्लिक कर सकते हैं।

छवि स्रोत: लेखक का अपना चित्र


2. टर्मिनल के माध्यम से लॉग इन करें (कोडर्स के लिए):

हम निम्नलिखित इमेज में दिखाए गए बटन से SSH कनेक्शन कमांड प्राप्त कर सकते हैं।

छवि स्रोत: लेखक का अपना चित्र


फिर, टर्मिनल के माध्यम से कनेक्शन स्थापित करें।

छवि स्रोत: लेखक का अपना चित्र


डॉल्फिन शेड्यूलर का मेटाडेटा आयात करें

DolphinScheduler में, सभी मेटाडेटा को डेटाबेस में संग्रहीत किया जाता है, जिसमें वर्कफ़्लो परिभाषाएँ, पर्यावरण कॉन्फ़िगरेशन, किरायेदार जानकारी आदि शामिल हैं। जब DolphinScheduler लॉन्च किया जाता है, तो उपयोगकर्ताओं के लिए इन वर्कफ़्लोज़ को देखना सुविधाजनक बनाने के लिए, हम सीधे पूर्व-निर्धारित वर्कफ़्लो मेटाडेटा को कॉपी करके आयात कर सकते हैं। स्क्रीन से।


MySQL में डेटा आयात करने के लिए स्क्रिप्ट को संशोधित करें:

टर्मिनल का उपयोग करके, निम्न निर्देशिका पर नेविगेट करें:

cd apache-dolphinscheduler-3.1.5-bin


कमांड निष्पादित करें: vim import_ds_metadata.sh import_ds_metadata.sh फ़ाइल खोलने के लिए। फ़ाइल की सामग्री इस प्रकार है:



Set variables

Hostname

HOST="xxx.xxx.xxx.x"


UsernameUSERNAME="root"PasswordPASSWORD="xxxx"PortPORT=3306Database to import intoDATABASE="ds315_llm_test"SQL filenameSQL_FILE="ds315_llm.sql"mysql -h $HOST -P $PORT -u $USERNAME -p$PASSWORD -e "CREATE DATABASE $DATABASE;"mysql -h $HOST -P $PORT -u $USERNAME -p$PASSWORD $DATABASE < $SQL_FILE


अपने सार्वजनिक नेटवर्क पर एक MySQL डेटाबेस के प्रासंगिक कॉन्फ़िगरेशन मानों के साथ xxx.xxx.xxx.x और xxxx को बदलें (आप अलीबाबा क्लाउड, टेनसेंट क्लाउड पर एक के लिए आवेदन कर सकते हैं या खुद को स्थापित कर सकते हैं)। फिर निष्पादित करें:

bash import_ds_metadata.sh


निष्पादन के बाद, यदि रुचि हो, तो आप डेटाबेस में संबंधित मेटाडेटा की जांच कर सकते हैं (MySQL से कनेक्ट करें और देखें, यदि आप कोड से परिचित नहीं हैं तो इस चरण को छोड़ दें)।

छवि स्रोत: लेखक का अपना चित्र


डॉल्फिन शेड्यूलर शुरू करें

सर्वर कमांड लाइन में, निम्न फ़ाइल खोलें और पहले से आयातित डेटाबेस के साथ डॉल्फिन शेड्यूलर को जोड़ने के लिए कॉन्फ़िगरेशन को संशोधित करें:


/root/apache-dolphinscheduler-3.1.5-bin/bin/env/dolphinscheduler_env.sh


डेटाबेस अनुभाग में संबंधित कॉन्फ़िगरेशन को संशोधित करें, और अन्य अनुभागों को अपरिवर्तित छोड़ दें। 'होस्ट' और 'पासवर्ड' के मानों को आयातित डेटाबेस के कॉन्फ़िगरेशन मानों में बदलें, यानी, xxx.xxx.xxx.x और xxxx:


export DATABASE=mysqlexport SPRING_PROFILES_ACTIVE=${DATABASE}export SPRING_DATASOURCE_URL="jdbc:mysql://HOST:3306/ds315_llm_test?useUnicode=true&characterEncoding=UTF-8&useSSL=false"export SPRING_DATASOURCE_USERNAME="root"export SPRING_DATASOURCE_PASSWORD="xxxxxx"......


कॉन्फ़िगर करने के बाद, निष्पादित करें (इस निर्देशिका /root/apache-dolphinscheduler-3.1.5-bin में भी):

bash ./bin/dolphinscheduler-daemon.sh start standalone-server


एक बार निष्पादित होने के बाद, हम tail -200f standalone-server/logs/dolphinscheduler-standalone.log उपयोग करके लॉग की जांच कर सकते हैं। इस बिंदु पर, डॉल्फिन शेड्यूलर आधिकारिक तौर पर लॉन्च किया गया है!


सेवा शुरू करने के बाद, हम ऑटोडीएल कंसोल (लाल रंग में हाइलाइट किए गए) में "कस्टम सर्विसेज" पर क्लिक करके यूआरएल पर रीडायरेक्ट कर सकते हैं:

छवि स्रोत: लेखक का अपना चित्र


URL खोलने पर, यदि उसमें 404 त्रुटि दिखाई देती है, तो चिंता न करें। URL में बस प्रत्यय /dolphinscheduler/ui संलग्न करें:

छवि स्रोत: लेखक का अपना चित्र

AutoDL मॉड्यूल पोर्ट 6006 खोलता है। DolphinScheduler के पोर्ट को 6006 पर कॉन्फ़िगर करने के बाद, आप इसे प्रदान किए गए प्रवेश बिंदु के माध्यम से एक्सेस कर सकते हैं। हालाँकि, URL पुनर्निर्देशन के कारण, आपको 404 त्रुटि का सामना करना पड़ सकता है। ऐसे मामलों में, आपको मैन्युअल रूप से यूआरएल को पूरा करना होगा।



लॉग इन प्रमाण - पत्र:

उपयोगकर्ता नाम: admin

पासवर्ड: dolphinscheduler123


लॉग इन करने के बाद, "विकुना" नामक पूर्वनिर्धारित परियोजना को देखने के लिए "परियोजना प्रबंधन" पर क्लिक करें। परियोजना में प्रवेश करने के लिए "विकुना" पर क्लिक करें।

छवि स्रोत: लेखक का अपना चित्र


ओपन सोर्स लार्ज मॉडल ट्रेनिंग एंड डिप्लॉयमेंट

वर्कफ़्लो परिभाषा

विकुना परियोजना में प्रवेश करने पर, आपको तीन कार्यप्रवाह दिखाई देंगे: प्रशिक्षण, परिनियोजन और किल_सर्विस। आइए उनके उपयोगों और बड़े मॉडलों को कॉन्फ़िगर करने और अपने डेटा को प्रशिक्षित करने के बारे में जानें।

छवि स्रोत: लेखक का अपना चित्र


संबंधित कार्यप्रवाह निष्पादित करने के लिए आप नीचे दिए गए रन बटन पर क्लिक कर सकते हैं।

छवि स्रोत: लेखक का अपना चित्र


प्रशिक्षण

प्रशिक्षण कार्यप्रवाह पर क्लिक करने पर, आपको दो परिभाषाएँ दिखाई देंगी। एक लोरा के माध्यम से मॉडल को ठीक करने के लिए है (मुख्य रूप से अल्पाका-लोरा, https://github.com/tloen/alpaca-lora का उपयोग करके), और दूसरा अंतिम मॉडल प्राप्त करने के लिए प्रशिक्षित मॉडल को बेस मॉडल के साथ मर्ज करना है .

छवि स्रोत: लेखक का अपना चित्र


वर्कफ़्लो में निम्नलिखित पैरामीटर हैं (रन पर क्लिक करने के बाद पॉप अप):


  • base_model: आधार मॉडल, जिसे आपकी आवश्यकता के अनुसार चुना और डाउनलोड किया जा सकता है। ओपन-सोर्स बड़े मॉडल केवल सीखने और अनुभवात्मक उद्देश्यों के लिए हैं। वर्तमान डिफ़ॉल्ट TheBlocke/vicuna-7B-1.1-HF है।
  • data_path: आपके व्यक्तिगत प्रशिक्षण डेटा और डोमेन-विशिष्ट डेटा का पथ, /root/demo-data/llama_data.json के लिए डिफ़ॉल्ट है।
  • lora_path: प्रशिक्षित लोरा वज़न को बचाने का मार्ग, /root/autodl-tmp/vicuna-7b-lora-weight.
  • output_path: बेस मॉडल और लोरा वेट को मिलाने के बाद अंतिम मॉडल का सेव पाथ, इसे नोट कर लें क्योंकि इसकी तैनाती के लिए जरूरत होगी।
  • num_epochs: प्रशिक्षण पैरामीटर, प्रशिक्षण युगों की संख्या। इसे परीक्षण के लिए 1 पर सेट किया जा सकता है, आमतौर पर 3 ~ 10 पर सेट किया जाता है।
  • cutoff_len: टेक्स्ट की अधिकतम लंबाई, डिफ़ॉल्ट 1024 है।
  • micro_batch_size: बैच का आकार।

छवि स्रोत: लेखक का अपना चित्र


तैनात करना

बड़े मॉडलों को तैनात करने के लिए वर्कफ़्लो (मुख्य रूप से FastChat, https://github.com/lm-sys/FastChat का उपयोग करके)। यह पहले तैनात किए गए मॉडल को मारने के लिए Kill_service का आह्वान करेगा, फिर क्रमिक रूप से नियंत्रक शुरू करेगा, मॉडल जोड़ देगा, और फिर ग्रैडियो वेब सेवा खोलेगा।

छवि स्रोत: लेखक का अपना चित्र


प्रारंभ पैरामीटर इस प्रकार हैं:

छवि स्रोत: लेखक का अपना चित्र


  • मॉडल: मॉडल पथ, यह हगिंगफेस मॉडल आईडी या हमारे द्वारा प्रशिक्षित मॉडल पथ हो सकता है, अर्थात उपरोक्त प्रशिक्षण वर्कफ़्लो का आउटपुट_पथ। डिफ़ॉल्ट TheBlock/vicuna-7B-1.1-HF है। यदि डिफ़ॉल्ट का उपयोग किया जाता है, तो यह सीधे vicuna-7b मॉडल को तैनात करेगा।

किल_सर्विस

इस वर्कफ़्लो का उपयोग तैनात मॉडल को खत्म करने और GPU मेमोरी को रिलीज़ करने के लिए किया जाता है। इस वर्कफ़्लो का कोई पैरामीटर नहीं है, और आप इसे सीधे चला सकते हैं। यदि आपको तैनात सेवा को रोकने की आवश्यकता है (जैसे कि जब आपको मॉडल को फिर से प्रशिक्षित करने की आवश्यकता हो या जब अपर्याप्त जीपीयू मेमोरी हो), तो आप तैनात सेवा को मारने के लिए सीधे Kill_service कार्यप्रवाह निष्पादित कर सकते हैं।


कुछ उदाहरणों के माध्यम से जाने के बाद, आपका डिप्लॉयमेंट पूरा हो जाएगा। अब आइए एक नजर डालते हैं व्यावहारिक संचालन पर:

बड़े मॉडल ऑपरेशन उदाहरण

  1. एक बड़े मॉडल का प्रशिक्षण

प्रशिक्षण कार्यप्रवाह निष्पादित करके और डिफ़ॉल्ट पैरामीटर का चयन करके सीधे कार्यप्रवाह प्रारंभ करें।

छवि स्रोत: लेखक का अपना चित्र


लॉग देखने के लिए संबंधित कार्य पर राइट-क्लिक करें, जैसा कि नीचे दिखाया गया है:

छवि स्रोत: लेखक का अपना चित्र


आप साइडबार के नीचे बाईं ओर टास्क इंस्टेंस पैनल में कार्य की स्थिति और लॉग भी देख सकते हैं। प्रशिक्षण प्रक्रिया के दौरान, आप वर्तमान प्रशिक्षण चरणों, हानि मैट्रिक्स, शेष समय आदि सहित लॉग की जाँच करके प्रगति की निगरानी कर सकते हैं। वर्तमान चरण को इंगित करने वाली एक प्रगति पट्टी है, जहाँ चरण = (डेटा आकार * युग) / बैच आकार।

छवि स्रोत: लेखक का अपना चित्र


प्रशिक्षण पूरा होने के बाद, लॉग निम्न जैसा दिखेगा:

छवि स्रोत: लेखक का अपना चित्र


आपका वैयक्तिकृत प्रशिक्षण डेटा अपडेट करना

हमारा डिफ़ॉल्ट डेटा /root/demo-data/llama_data.json में है। वर्तमान डेटा स्रोत Huatuo है, जो चीनी चिकित्सा डेटा का उपयोग करके तैयार किया गया एक चिकित्सा मॉडल है। हाँ, हमारा उदाहरण एक पारिवारिक डॉक्टर को प्रशिक्षित कर रहा है:

छवि स्रोत: लेखक का अपना चित्र


यदि आपके पास किसी विशिष्ट क्षेत्र में डेटा है, तो आप अपने स्वयं के डेटा को इंगित कर सकते हैं, डेटा प्रारूप इस प्रकार है:


एक JSON प्रति पंक्ति, और फ़ील्ड का अर्थ है:

  • निर्देश ****: मॉडल को देने का निर्देश।
  • इनपुट: इनपुट।
  • आउटपुट: अपेक्षित मॉडल आउटपुट।

उदाहरण के लिए:

{"instruction": "calculation", "input": "1+1 equals?", "output": "2"}


कृपया ध्यान दें कि आप निर्देश और इनपुट फ़ील्ड को एक ही निर्देश फ़ील्ड में मर्ज कर सकते हैं। इनपुट फ़ील्ड को खाली भी छोड़ा जा सकता है।


प्रशिक्षण के दौरान, अपने स्वयं के डेटा को निष्पादित करने के लिए data_path पैरामीटर को संशोधित करें।


टिप्पणी:


पहले प्रशिक्षण निष्पादन के दौरान, बेस मॉडल को निर्दिष्ट स्थान से प्राप्त किया जाएगा, जैसे TheBlocke/vicuna-7B-1.1-HF। डाउनलोड करने की प्रक्रिया होगी, इसलिए कृपया डाउनलोड पूरा होने तक प्रतीक्षा करें। इस मॉडल की पसंद उपयोगकर्ता द्वारा निर्धारित की जाती है, और आप अन्य ओपन-सोर्स बड़े मॉडल डाउनलोड करना भी चुन सकते हैं (कृपया उनका उपयोग करते समय संबंधित लाइसेंस का पालन करें)।


नेटवर्क समस्याओं के कारण, बेस मॉडल डाउनलोड पहले प्रशिक्षण निष्पादन के आधे रास्ते में विफल हो सकता है। ऐसे मामलों में, आप असफल कार्य पर क्लिक कर सकते हैं और प्रशिक्षण जारी रखने के लिए इसे फिर से चलाना चुन सकते हैं। ऑपरेशन नीचे दिखाया गया है:

छवि स्रोत: लेखक का अपना चित्र


प्रशिक्षण को रोकने के लिए, आप स्टॉप बटन पर क्लिक कर सकते हैं, जो प्रशिक्षण के लिए उपयोग की जाने वाली GPU मेमोरी को रिलीज़ करेगा।

परिनियोजन वर्कफ़्लो

कार्यप्रवाह परिभाषा पृष्ठ पर, इसे चलाने के लिए परिनियोजित कार्यप्रवाह पर क्लिक करें और मॉडल को परिनियोजित करें।

छवि स्रोत: लेखक का अपना चित्र


यदि आपने अपने स्वयं के मॉडल को प्रशिक्षित नहीं किया है, तो आप vicuna-7b मॉडल को तैनात करने के लिए डिफ़ॉल्ट पैरामीटर TheBloke/vicuna-7B-1.1-HF के साथ परिनियोजन कार्यप्रवाह निष्पादित कर सकते हैं, जैसा कि नीचे दी गई छवि में दिखाया गया है:

छवि स्रोत: लेखक का अपना चित्र


यदि आपने पिछले चरण में किसी मॉडल को प्रशिक्षित किया है, तो अब आप अपने मॉडल को परिनियोजित कर सकते हैं। परिनियोजन के बाद, आप अपने स्वयं के बड़े मॉडल का अनुभव कर सकते हैं। स्टार्टअप पैरामीटर इस प्रकार हैं, जहां आपको पिछले चरण से मॉडल के output_path को भरने की आवश्यकता है:

छवि स्रोत: लेखक का अपना चित्र


अगला, परिनियोजित वर्कफ़्लो उदाहरण दर्ज करें। वर्कफ़्लो इंस्टेंस पर क्लिक करें, और फिर "तैनाती" उपसर्ग के साथ वर्कफ़्लो इंस्टेंस पर क्लिक करें।

छवि स्रोत: लेखक का अपना चित्र

कार्य लॉग देखने और हमारे बड़े मॉडल लिंक का स्थान खोजने के लिए राइट-क्लिक करें और "refresh_gradio_web_service" चुनें।


ऑपरेशन नीचे दिखाया गया है:

छवि स्रोत: लेखक का अपना चित्र



लॉग में, आपको एक लिंक मिलेगा जिसे सार्वजनिक रूप से एक्सेस किया जा सकता है, जैसे:

छवि स्रोत: लेखक का अपना चित्र


यहाँ दो लिंक हैं। लिंक 0.0.0.0:7860 तक पहुँचा नहीं जा सकता क्योंकि AutoDL केवल पोर्ट 6006 खोलता है, जो पहले से ही डॉल्फ़िन शेड्यूलर के लिए उपयोग किया जाता है। आप इसके नीचे दिए गए लिंक तक सीधे पहुंच सकते हैं, जैसे [https://81c9f6ce11eb3c37a4.gradio.live.](https://81c9f6ce11eb3c37a4.gradio.live.)


कृपया ध्यान दें कि यह लिंक आपके द्वारा तैनात किए जाने पर हर बार बदल सकता है, इसलिए आपको इसे लॉग से फिर से खोजने की आवश्यकता है।


एक बार जब आप लिंक दर्ज करते हैं, तो आप अपने स्वयं के चैटजीपीटी का वार्तालाप पृष्ठ देखेंगे!

छवि स्रोत: लेखक का अपना चित्र


छवि स्रोत: लेखक का अपना चित्र


हाँ! अब आपके पास अपना चैटजीपीटी है, और इसका डेटा केवल आपकी सेवा करता है!


और आपने केवल एक कप कॉफी ~~ की लागत से कम खर्च किया


आगे बढ़ें और अपने निजी चैटजीपीटी का अनुभव करें!

सारांश

इस डेटा-संचालित और प्रौद्योगिकी-उन्मुख दुनिया में, एक समर्पित चैटजीपीटी मॉडल का अथाह मूल्य है। आर्टिफिशियल इंटेलिजेंस और डीप लर्निंग की प्रगति के साथ, हम एक ऐसे युग में हैं जहां व्यक्तिगत एआई सहायकों को आकार दिया जा सकता है। अपने स्वयं के चैटजीपीटी मॉडल का प्रशिक्षण और परिनियोजन हमें एआई को बेहतर ढंग से समझने और यह कैसे हमारी दुनिया को बदल रहा है, को समझने में मदद कर सकता है।


संक्षेप में, चैटजीपीटी मॉडल को अपने दम पर प्रशिक्षण और तैनात करने से आपको डेटा सुरक्षा और गोपनीयता की रक्षा करने, विशिष्ट व्यावसायिक आवश्यकताओं को पूरा करने, प्रौद्योगिकी लागतों को बचाने और डॉल्फिन शेड्यूलर जैसे वर्कफ़्लो टूल का उपयोग करके प्रशिक्षण प्रक्रिया को स्वचालित करने में मदद मिल सकती है। यह आपको स्थानीय कानूनों और विनियमों का पालन करने की भी अनुमति देता है। इसलिए, चैटजीपीटी मॉडल को अपने दम पर प्रशिक्षित करना और तैनात करना विचार करने के लिए एक उपयुक्त विकल्प है।


महत्वपूर्ण लेख:

  • डेटा सुरक्षा और गोपनीयता: सार्वजनिक एपीआई सेवाओं के माध्यम से चैटजीपीटी का उपयोग करते समय, आपको डेटा सुरक्षा और गोपनीयता के बारे में चिंता हो सकती है। यह एक वैध चिंता है क्योंकि आपका डेटा नेटवर्क पर प्रसारित किया जा सकता है। अपने आप मॉडल को प्रशिक्षण और परिनियोजित करके, आप यह सुनिश्चित कर सकते हैं कि डेटा सुरक्षा और गोपनीयता सुनिश्चित करते हुए, आपका डेटा केवल आपके अपने डिवाइस या किराए के सर्वर पर संग्रहीत और संसाधित किया जाता है।
  • डोमेन-विशिष्ट ज्ञान: विशिष्ट व्यावसायिक आवश्यकताओं वाले संगठनों या व्यक्तियों के लिए, अपने स्वयं के चैटजीपीटी मॉडल का प्रशिक्षण सुनिश्चित करता है कि मॉडल में आपके व्यवसाय से संबंधित नवीनतम और सबसे प्रासंगिक ज्ञान है। आपके व्यावसायिक डोमेन के बावजूद, विशेष रूप से आपकी व्यावसायिक आवश्यकताओं के लिए प्रशिक्षित एक मॉडल एक सामान्य मॉडल की तुलना में अधिक मूल्यवान होगा।
  • निवेश लागत: OpenAI के ChatGPT मॉडल का उपयोग करने पर कुछ लागतें लग सकती हैं। इसी तरह, यदि आप अपने दम पर मॉडल को प्रशिक्षित और तैनात करना चाहते हैं, तो आपको संसाधनों का निवेश करने और तकनीकी लागतों को वहन करने की भी आवश्यकता है। उदाहरण के लिए, आप 40 युआन तक के बड़े मॉडल को डिबग करने का अनुभव कर सकते हैं, लेकिन यदि आप इसे लंबे समय तक चलाने की योजना बनाते हैं, तो एनवीडिया आरटीएक्स 3090 ग्राफिक्स कार्ड खरीदने या क्लाउड सर्वर किराए पर लेने की सिफारिश की जाती है। इसलिए, आपको पेशेवरों और विपक्षों का वजन करने और उस समाधान को चुनने की आवश्यकता है जो आपकी विशिष्ट परिस्थितियों के अनुकूल हो।
  • डॉल्फिन शेड्यूलर: अपाचे डॉल्फिन शेड्यूलर के वर्कफ़्लो का उपयोग करके, आप पूरी प्रशिक्षण प्रक्रिया को स्वचालित कर सकते हैं, तकनीकी बाधा को बहुत कम कर सकते हैं। यहां तक कि अगर आपके पास एल्गोरिदम का व्यापक ज्ञान नहीं है, तो आप ऐसे टूल की मदद से अपने खुद के मॉडल को सफलतापूर्वक प्रशिक्षित कर सकते हैं। बड़े मॉडल प्रशिक्षण का समर्थन करने के अलावा, डॉल्फिन शेड्यूलर बड़े डेटा शेड्यूलिंग और मशीन लर्निंग शेड्यूलिंग का भी समर्थन करता है, जिससे आपको और आपके गैर-तकनीकी कर्मचारियों को बड़े डेटा प्रोसेसिंग, डेटा तैयारी, मॉडल प्रशिक्षण और मॉडल परिनियोजन को आसानी से संभालने में मदद मिलती है। इसके अलावा, यह खुला-स्रोत और उपयोग करने के लिए स्वतंत्र है।
  • ओपन सोर्स बड़े मॉडल पर कानूनी और विनियामक प्रतिबंध: डॉल्फिन शेड्यूलर सिर्फ एक दृश्य एआई वर्कफ़्लो टूल है और कोई ओपन-सोर्स बड़े मॉडल प्रदान नहीं करता है। ओपन सोर्स बड़े मॉडल का उपयोग और डाउनलोड करते समय, आपको प्रत्येक मॉडल से जुड़े विभिन्न उपयोग प्रतिबंधों से अवगत होना चाहिए और संबंधित ओपन सोर्स लाइसेंस का अनुपालन करना चाहिए। इस लेख में दिए गए उदाहरण केवल व्यक्तिगत सीखने और अनुभव के उद्देश्यों के लिए हैं। बड़े मॉडल का उपयोग करते समय, ओपन-सोर्स मॉडल लाइसेंसिंग का अनुपालन सुनिश्चित करना महत्वपूर्ण है। इसके अतिरिक्त, अलग-अलग देशों में डेटा स्टोरेज और प्रोसेसिंग के संबंध में अलग-अलग सख्त नियम हैं। बड़े मॉडलों का उपयोग करते समय, आपको अपने स्थान के विशिष्ट कानूनी विनियमों और नीतियों का अनुपालन करने के लिए मॉडल को अनुकूलित और समायोजित करना होगा। इसमें स्थानीय गोपनीयता और संवेदनशील जानकारी प्रबंधन नियमों का पालन करने के लिए मॉडल आउटपुट का विशिष्ट फ़िल्टरिंग शामिल हो सकता है।


यहाँ भी प्रकाशित हुआ।