paint-brush
चैट अनुप्रयोगों के लिए LLaMA v2 में एक गहन जानकारीद्वारा@mikeyoung44
1,200 रीडिंग
1,200 रीडिंग

चैट अनुप्रयोगों के लिए LLaMA v2 में एक गहन जानकारी

द्वारा Mike Young5m2023/07/19
Read on Terminal Reader

बहुत लंबा; पढ़ने के लिए

A16z-infra द्वारा मेटा के नए [llama13b-v2-chat] चैट मॉडल का कार्यान्वयन। मॉडल को रिप्लिकेट पर होस्ट किया गया है, एक एआई मॉडल होस्टिंग सेवा जो आपको कोड की कुछ पंक्तियों या एक साधारण एपीआई कॉल के साथ जटिल मॉडल के साथ बातचीत करने की अनुमति देती है। 13 अरब मापदंडों के साथ, इस मॉडल को चैट अनुप्रयोगों के लिए महत्वपूर्ण रूप से तैयार किया गया है।
featured image - चैट अनुप्रयोगों के लिए LLaMA v2 में एक गहन जानकारी
Mike Young HackerNoon profile picture
0-item
1-item
2-item


ऑनलाइन चैट अनुप्रयोगों में मानव-जैसी प्रतिक्रियाएँ उत्पन्न करने की जटिलताओं के बारे में सोचें। आप बुनियादी ढांचे को कुशल और प्रतिक्रियाओं को यथार्थवादी कैसे बना सकते हैं? समाधान एआई भाषा मॉडल है। इस गाइड में, हम मेटा के नए llama13b-v2-चैट एलएलएम के a16z-इन्फ्रा के कार्यान्वयन में गहराई से उतरते हैं, जो एक 13-बिलियन-पैरामीटर भाषा मॉडल है जो विशेष रूप से चैट अनुप्रयोगों के लिए ठीक किया गया है। यह मॉडल रेप्लिकेट पर होस्ट किया गया है, जो एक एआई मॉडल होस्टिंग सेवा है जो आपको कोड की कुछ पंक्तियों या एक साधारण एपीआई कॉल के साथ जटिल और शक्तिशाली मॉडल के साथ बातचीत करने की अनुमति देती है।


इस गाइड में, हम कवर करेंगे कि llama13b-v2-चैट मॉडल क्या है, इसके इनपुट और आउटपुट के बारे में कैसे सोचा जाए और चैट पूर्णता बनाने के लिए इसका उपयोग कैसे किया जाए। हम आपको यह भी बताएंगे कि AIModels.fyi का उपयोग करके अपने AI अनुप्रयोगों को बढ़ाने के लिए समान मॉडल कैसे खोजें। तो आइए एआई शब्दजाल को तोड़ें और मूल बात पर आएं।


इस तरह की और सामग्री के लिए ट्विटर पर मुझे सब्सक्राइब करें या फ़ॉलो करें !

LLaMA-v2 चैट मॉडल के बारे में

रेप्लिकेट पर उपलब्ध LLaMA13b-v2-चैट मॉडल a16z-infra टीम द्वारा बनाया गया था और इसे मेटा के नए LLaMA v2 मॉडल के शीर्ष पर बनाया गया है। मेटा ने मानव भाषा को बेहतर ढंग से समझने और उत्पन्न करने के उद्देश्य से एलएलएएमए बनाया है, और जिस चैट मॉडल की हम जांच करेंगे उसे मानव उपयोगकर्ताओं और एआई चैटबॉट्स के बीच बातचीत को बेहतर बनाने के लिए और बेहतर बनाया गया है। 13 अरब मापदंडों के साथ, इस मॉडल को इस विशिष्ट उपयोग-मामले के लिए महत्वपूर्ण रूप से तैयार किया गया है। आप AIModels.fyi पर निर्माता के पेज पर a16z-infra द्वारा इस मॉडल और अन्य मॉडलों के बारे में अधिक विवरण पा सकते हैं।


Llama13b-v2-चैट मॉडल का रेप्लिकेट कार्यान्वयन भविष्यवाणियों के लिए शक्तिशाली Nvidia A100 (40GB) GPU का उपयोग करता है, जिसका औसत रन टाइम प्रति भविष्यवाणी 7 सेकंड है। इसकी कीमत मात्र $0.014 प्रति रन है, जो इसे कम बजट वाली परियोजनाओं या स्टार्टअप के लिए व्यापक रूप से सुलभ बनाती है।

LLaMA v2 चैट के इनपुट और आउटपुट को समझना

यह समझना कि किसी मॉडल में क्या होता है और क्या निकलता है, उसकी क्षमताओं का प्रभावी ढंग से लाभ उठाने की कुंजी है। तो आइए मॉडल के इनपुट और आउटपुट से परिचित हों।

इनपुट

मॉडल निम्नलिखित इनपुट स्वीकार करता है:


  1. prompt (स्ट्रिंग): लामा v2 को भेजने का प्रॉम्प्ट।


  2. max_length (पूर्णांक): उत्पन्न करने के लिए टोकन की अधिकतम संख्या। ध्यान रखें, एक शब्द आम तौर पर 2-3 टोकन का होता है। डिफ़ॉल्ट मान 500 है.


  3. temperature (संख्या): आउटपुट की यादृच्छिकता को समायोजित करता है। 1 से बड़ा यादृच्छिक है और 0 नियतात्मक है। एक अच्छा आरंभिक मान 0.75 है.


  4. top_p (संख्या): टेक्स्ट डिकोडिंग के दौरान, यह सबसे संभावित टोकन के शीर्ष पी प्रतिशत से नमूना लेता है। कम संभावना वाले टोकन को नज़रअंदाज करने के लिए इसे कम करें। डीफॉल्ट मूल्य 1 है।


  5. repetition_penalty (संख्या): उत्पन्न पाठ में दोहराए गए शब्दों के लिए दंड प्रदान करता है। 1 कोई दंड नहीं है. 1 से अधिक मान पुनरावृत्ति को हतोत्साहित करते हैं, 1 से कम इसे प्रोत्साहित करते हैं।


  6. debug (बूलियन): लॉग में डिबगिंग आउटपुट प्रदान करने के लिए उपयोग किया जाता है।


ध्यान दें कि मॉडल के निर्माता अनुशंसा करते हैं कि आप अपना प्रॉम्प्ट बनाते समय इस संरचना का पालन करें:

 User: <your prompt goes here> Assistant:


उदाहरण के लिए...

 User: give me tips on things to do in Maine Assistant:

मॉडल के आउटपुट

मॉडल निम्नलिखित आउटपुट उत्पन्न करता है:


  1. एक कच्चा JSON स्कीमा, आउटपुट संरचना को सूचीबद्ध करता है - आगे की गणना या उपयोगकर्ता इंटरफ़ेस के लिए उपयोग की जाने वाली स्ट्रिंग्स की एक सरणी। यहां आउटपुट स्कीमा का एक उदाहरण दिया गया है:
 { "type": "array", "items": { "type": "string" }, "title": "Output", "x-cog-array-type": "iterator", "x-cog-array-display": "concatenate" }


अब, आइए इस मॉडल का उपयोग कैसे करें की बारीकियों पर विचार करें।

प्राकृतिक चैट पूर्णताएँ उत्पन्न करने के लिए LLaMA v2 चैट का उपयोग करना

चाहे आप कोड में नौसिखिया हों, या आप एक अनुभवी अनुभवी हों, यथार्थवादी चैट पूर्णता बनाने के लिए llama13b-v2-चैट मॉडल का उपयोग करना काफी मजेदार हो सकता है।


यदि आप बस खेल रहे हैं और यह महसूस करना चाहते हैं कि यह कैसे काम करता है, तो मॉडल के इंटरफ़ेस के साथ बातचीत करने और इसकी कार्यप्रणाली को समझने के लिए इस डेमो लिंक का उपयोग करें । एक बार जब आप इसे अपने प्रोजेक्ट में लागू करने के लिए तैयार हों, तो नीचे दिए गए चरणों का पालन करें।


सबसे पहले, आपको Node.js क्लाइंट स्थापित करके अपना वातावरण स्थापित करना होगा:

 npm install Replicate


इसके बाद, अपने एपीआई टोकन को प्रमाणित करें और इसे एक पर्यावरण चर के रूप में सेट करें। यह टोकन व्यक्तिगत है, और इसलिए इसे गोपनीय रखा जाना चाहिए:

 export REPLICATE_API_TOKEN=r8_******


फिर, आप मॉडल को निम्नलिखित स्क्रिप्ट के साथ चला सकते हैं:

 import Replicate from "replicate"; const replicate = new Replicate({ auth: process.env.REPLICATE_API_TOKEN, }); const output = await replicate.run( "a16z-infra/llama13b-v2-chat:df7690f1994d94e96ad9d568eac121aecf50684a0b0963b25a41cc40061269e5", { input: { prompt: "..." } } );


आप अपनी भविष्यवाणी पूरी होने पर कॉल करने के लिए एक वेबहुक भी सेट कर सकते हैं। यह लॉग बनाए रखने या स्वचालित अलर्ट सेट करने में फायदेमंद हो सकता है।

 const prediction = await replicate.predictions.create({ version: "df7690f1994d94e96ad9d568eac121aecf50684a0b0963b25a41cc40061269e5", input: { prompt: "..." }, webhook: "https://example.com/your-webhook", webhook_events_filter: ["completed"] });

अधिक विवरण के लिए, आप हमेशा रिप्लिकेट पर दस्तावेज़ देख सकते हैं।

इसे आगे ले जाना: AIModels.fyi के साथ अन्य टेक्स्ट-टू-टेक्स्ट मॉडल ढूंढना

क्या आप अपने एप्लिकेशन के लिए कुछ अन्य चैटबॉट तलाशना चाहते हैं? जब आप AIModels.fyi का उपयोग कर रहे हों तो llama13b-v2-chat के समान मॉडल ढूंढना आसान है।


आपकी विशिष्ट आवश्यकताओं को पूरा करने वाले अन्य एआई मॉडल ढूंढने में आपकी सहायता के लिए यहां एक चरण-दर-चरण मार्गदर्शिका दी गई है:

चरण 1: AIModels.fyi पर जाएँ

अपना अन्वेषण शुरू करने के लिए AIModels.fyi पर जाएँ।

चरण 2: खोज बार का उपयोग करें

मुख्य वाक्यांश टाइप करें जैसे "टेक्स्ट-टू-टेक्स्ट", "भाषा मॉडल", आदि। खोज इंजन आपकी क्वेरी के अनुरूप मॉडलों की एक सूची प्रस्तुत करेगा।

चरण 3: परिणाम फ़िल्टर करें

आपकी खोज को सीमित करने के लिए फ़िल्टर आपके खोज परिणाम पृष्ठ पर पाए जा सकते हैं। आप मॉडलों को प्रकार, लागत, लोकप्रियता या यहां तक कि विशिष्ट रचनाकारों द्वारा फ़िल्टर और क्रमबद्ध कर सकते हैं। उदाहरण के लिए, यदि आप बजट-अनुकूल टेक्स्ट-टू-टेक्स्ट मॉडल की तलाश में हैं, तो आप सबसे सस्ता विकल्प खोजने के लिए मॉडल को कीमत के आधार पर क्रमबद्ध कर सकते हैं।

निष्कर्ष

इस गाइड में, हमने LLaMA v2, एक सुविधा संपन्न, लागत प्रभावी भाषा मॉडल की क्षमता का पता लगाया। यह आपके अगले चैट एप्लिकेशन के लिए संभावित रीढ़ है, जो सूक्ष्म और यथार्थवादी बातचीत को सशक्त बनाता है। अब आप जानते हैं कि इस मॉडल को कैसे लागू किया जाए, इसके इनपुट/आउटपुट को कैसे समझा जाए और प्रभावी ढंग से प्रासंगिक चैट पूर्णताएं तैयार की जाएं।


जब आप अपना ज्ञान बढ़ाना जारी रखेंगे तो आपको ये अन्य मार्गदर्शिकाएँ उपयोगी लग सकती हैं:


अपनी कल्पनाशक्ति का उपयोग करके और इसे इन एआई उपकरणों के साथ जोड़कर, आप खुद को कृत्रिम बुद्धिमत्ता के विशाल ब्रह्मांड में लॉन्च करते हैं, नई और रोमांचक परियोजनाएं बनाते हैं। हम यह देखने के लिए उत्साहित हैं कि आप आगे कहां जाएंगे। नए और बेहतर एआई मॉडल पर अपडेट रहने के लिए और अपने अगले एआई प्रोजेक्ट के लिए अपनी रचनात्मकता को बढ़ावा देने के लिए अधिक ट्यूटोरियल के लिए सदस्यता लेना न भूलें। तब तक, एआई एडवेंचर से खुश रहें और मेरे ट्विटर पर हैलो कहना याद रखें।


इस तरह की और सामग्री के लिए ट्विटर पर मुझे सब्सक्राइब करें या फ़ॉलो करें !