"किसी इंसान को मशीन का काम करने के लिए कभी न भेजें"
- एजेंट स्मिथ
चैट एलएलएम अच्छे हैं, लेकिन एक बुद्धिमान एजेंट के रूप में कार्रवाई करना अगले स्तर का है। उनमें से बहुतों के बारे में क्या? मिलिए माइक्रोसॉफ्ट के नवीनतम ऑटोजेन प्रोजेक्ट से।
लेकिन एक समस्या है। ऑटोजेन को डिफ़ॉल्ट रूप से ओपनएआई से जोड़ने के लिए बनाया गया था, जो सीमित, महंगा और सेंसर/गैर-संवेदनशील है। इसीलिए स्थानीय स्तर पर Mistral-7B
जैसे सरल एलएलएम का उपयोग करना सबसे अच्छा तरीका है। आप अपनी पसंद के किसी अन्य मॉडल जैसे Llama2
, Falcon
, Vicuna
, Alpaca
के साथ भी उपयोग कर सकते हैं, आकाश (आपका हार्डवेयर) वास्तव में सीमा है।
रहस्य यह है कि अपने स्थानीय एलएलएम सर्वर जैसे ओबाबूगा के टेक्स्ट-जेनरेशन-वेबुई में ओपनएआई जेएसओएन शैली के आउटपुट का उपयोग करें, फिर इसे ऑटोजेन से कनेक्ट करें। आज हम यही निर्माण कर रहे हैं।
ध्यान दें कि ओपनाई एपीआई प्रारूप में एलएलएमएस स्पिट टेक्स्ट बनाने के लिए अन्य तरीके भी हैं जैसे कि llama.cpp पायथन बाइंडिंग।
इस ट्यूटोरियल में हम होंगे: 0. ओबाबूगा की टेक्स्ट-जेनरेशन-वेबुई, एक एलएलएम (मिस्ट्रल-7बी) और ऑटोजेन प्राप्त करना
Oobabooga पर OpenAi प्रारूप एक्सटेंशन सेट करना
स्थानीय एलएलएम सर्वर को ओपनएआई प्रारूप के साथ प्रारंभ करना
इसे ऑटोजेन से जोड़ना
आएँ शुरू करें!
आगे बढ़ने से पहले, पिप पैकेज स्थापित करते समय वर्चुअल वातावरण का उपयोग करने की अनुशंसा की जाती है। यदि आप चाहें तो एक नया बनाएं और इसे सक्रिय करें।
ओब्बाबूगा की टेक्स्ट जेनरेशन वेबुई प्राप्त करना: यह आपकी स्थानीय मशीन में एलएलएम की मेजबानी के लिए एक प्रसिद्ध कार्यक्रम है। टेक्स्ट-जेनरेशन-वेबुई के पेज पर जाएं और इंस्टॉलेशन गाइड का पालन करें। आरंभ करना बहुत सीधा है। यदि आप त्वरण के लिए NVIDIA GPU का उपयोग कर रहे हैं तो आप CUDA भी डाउनलोड करना चाह सकते हैं।
एलएलएम (मिस्ट्रल-7बी-इंस्ट्रक्ट) प्राप्त करना: टेक्स्ट जेनरेशन वेबुई डाउनलोड करने के बाद, इसे अभी शुरू न करें। हमें अपने एजेंटों को जीवन देने के लिए एलएलएम प्राप्त करने की आवश्यकता है।
आज हम मिस्ट्रल-7बी , विशेष रूप से मिस्ट्रल-7बी-इंस्ट्रक्ट-v0.1.Q4_K_S.gguf की खोज करेंगे, जो द ब्लोक द्वारा मॉडल का एक अनुकूलित संस्करण है। आप विवरण में दिए गए स्पष्टीकरण के आधार पर अपनी मशीन के लिए उपयुक्त अनुकूलित मॉडल चुन सकते हैं।
आप अपने हार्डवेयर के आधार पर छोटे या बड़े मॉडल चुन सकते हैं। अपने कंप्यूटर में चीज़ों को आज़माने से न डरें, हालाँकि हम यहाँ विज्ञान बना रहे हैं।
फ़ाइलें और संस्करण पृष्ठ पर जाएं, और निम्नलिखित प्राप्त करें:
config.json
मिस्ट्रल-7B-instruct-v0.1.Q4_K_S.gguf (अधिकांश मध्य सेटअपों में अच्छा चलेगा)
एक बार डाउनलोड हो जाने पर, टेक्स्ट-जेनरेशन-वेबुई इंस्टॉलेशन फ़ोल्डर पर जाएं, और उसके अंदर मॉडल फ़ोल्डर खोलें । वहां, अपने मॉडल के नाम (या जो भी नाम आप चाहते हैं) के साथ एक नया फ़ोल्डर बनाएं , जैसे "मिस्ट्रल-7बी-इंस्ट्रक्ट" । रास्ता इस प्रकार होगा:
C:/.../text-generation-webui/models/mistral-7b-instruct
config.json फ़ाइल और model.gguf दोनों को नए फ़ोल्डर में रखें।
ऑटोजेन प्राप्त करना :
माइक्रोसॉफ्ट की मल्टी-एजेंट मेकिंग पायथन लाइब्रेरी को स्थापित करने के लिए बस इसे अपने टर्मिनल में पाइप पैकेज इंस्टॉलर का उपयोग करके इंस्टॉल करें।
pip install pyautogen
आपके बिल्कुल नए टेक्स्ट-जेनरेशन-वेबुई को स्थापित करने और एलएलएम डाउनलोड करने के साथ, हम आपके स्थानीय ओबाबूगा सर्वर को ओपनएआई जेएसओएन प्रारूप में बोलने के लिए आगे बढ़ सकते हैं। आप OpenAi API प्रारूपों और उनमें इसकी विशेषताओं के बारे में अधिक जान सकते हैं
ऑटोजेन को अपने स्थानीय सर्वर से जोड़ने के लिए, हमें ओओबाबोगा के टेक्स्ट-जेनरेशन-वेबुई एक्सटेंशन फ़ोल्डर में "ओपनई" एक्सटेंशन को सक्रिय करना होगा।
अपने टर्मिनल में "टेक्स्ट-जेनरेशन-वेबुई/एक्सटेंशन/ओपनई" फ़ोल्डर पर जाएं और वहां इसकी आवश्यकताएं इंस्टॉल करें:
pip install -r requirements.txt
अब अपने टर्मिनल में /text-generation-webui रूट फ़ोल्डर पर वापस जाएँ। इस बच्चे को उठाने और दौड़ने का समय आ गया है।
जैसा कि नाम से पता चलता है, इसका उपयोग वेबुई के रूप में किया जाना था, लेकिन आप इसे अपने द्वारा बनाए गए अन्य प्रोग्रामों से एपीआई को क्वेरी करने के लिए एक सर्वर के रूप में भी चालू रख सकते हैं।
इसे स्थानीय सर्वर के रूप में और ओपनई एपीआई एक्सटेंशन के साथ बूट करने के लिए, अपने वर्तमान ओएस के अनुसार निम्नलिखित कमांड का उपयोग करें।
"मॉडल" पैरामीटर को उस फ़ोल्डर नाम में बदलना न भूलें जिसे हमने पहले /मॉडल में बनाया था। (मेरे मामले में मैंने फ़ोल्डर का नाम **“**मिस्ट्रल-7बी-इंस्ट्रक्शन” रखा है)
खिड़कियाँ:
./start_windows.bat --extensions openai --listen --loader llama.cpp --model mistral-7b-instruct
लिनक्स:
./start_linux.sh --extensions openai --listen --loader llama.cpp --model mistral-7b-instruct
मैक ओएस:
./start_macos.sh --extensions openai --listen --loader llama.cpp --model mistral-7b-instruct
हम एक्सटेंशन लोड करने के लिए एक्सटेंशन ओपनएआई पैरामीटर पास करते हैं, एक सर्वर शुरू करने के लिए सुनते हैं जिसे हम ऑटोजेन, लोडर और मॉडल से क्वेरी कर सकते हैं जो मॉडल के लिए लोडर और हमारे द्वारा पहले बनाए गए मॉडल फ़ोल्डर नाम को config.json और मॉडल के साथ निर्दिष्ट करता है। जीजीयूएफ फ़ाइलें।
यदि सब कुछ सही रहा, तो आपको कुछ ऐसा दिखाई दे सकता है:
वेबुई आपके लोकलहोस्ट पोर्ट 7860 पर सामान्य शुरुआत के रूप में चल रहा है, लेकिन ध्यान दें कि हमारा ओपनएआई संगत एपीआई हमारे स्थानीय होस्ट पर ऑटोजेन द्वारा उपयोग के लिए भी तैयार है।
इस बिंदु पर, आपके पास पहले से ही ऑटोजेन लिब स्थापित है, इसलिए इसे आयात करने और हमारे एलएलएम सर्वर को प्लग करने का समय आ गया है।
आइए कुछ सरल से शुरुआत करें, एक एकल एजेंट एक इंसान (आप) के साथ बातचीत कर रहा है। जहां भी आप चाहें एक नई निर्देशिका बनाएं और वहां एक नई autogen.py फ़ाइल जोड़ें। आप अपनी इच्छानुसार फ़ाइल का नाम भी बदल सकते हैं।
आम तौर पर OpenAi GPT के एपीआई से कनेक्ट करने के लिए आप फ़ाइल को इस तरह शुरू करेंगे:
import autogen #start importing the autogen lib config_list = [ { 'model': 'gpt-3.5-turbo', 'api_key': 'your openai real key here' } ]
लेकिन हमारे चल रहे स्थानीय सर्वर का उपयोग करने के लिए, हम इसे इस तरह शुरू करते हैं:
import autogen #start importing the autogen lib config_list = [ { "model": "mistral-instruct-7b", #the name of your running model "api_base": "http://127.0.0.1:5001/v1", #the local address of the api "api_type": "open_ai", "api_key": "sk-111111111111111111111111111111111111111111111111", # just a placeholder } ]
चूँकि आपको स्थानीय स्तर पर काम करने के लिए वास्तविक कुंजी की आवश्यकता नहीं है, हम केवल sk-1111… प्लेसहोल्डर का उपयोग कर रहे हैं।
इसके बाद, हम एजेंट और मानव उपयोगकर्ता को सेटअप कर सकते हैं। बेहतर समझ के लिए टिप्पणियाँ पढ़ें।
import autogen #start importing the autogen lib config_list = [ { "model": "mistral-instruct-7b", #the name of your running model "api_base": "http://127.0.0.1:5001/v1", #the local address of the api "api_type": "open_ai", "api_key": "sk-111111111111111111111111111111111111111111111111", # just a placeholder } ] # create an ai AssistantAgent named "assistant" assistant = autogen.AssistantAgent( name="assistant", llm_config={ "seed": 42, # seed for caching and reproducibility "config_list": config_list, # a list of OpenAI API configurations "temperature": 0, # temperature for sampling "request_timeout": 400, # timeout }, # configuration for autogen's enhanced inference API which is compatible with OpenAI API ) # create a human UserProxyAgent instance named "user_proxy" user_proxy = autogen.UserProxyAgent( name="user_proxy", human_input_mode="NEVER", max_consecutive_auto_reply=10, is_termination_msg=lambda x: x.get("content", "").rstrip().endswith("TERMINATE"), code_execution_config={ "work_dir": "agents-workspace", # set the working directory for the agents to create files and execute "use_docker": False, # set to True or image name like "python:3" to use docker }, ) # the assistant receives a message from the user_proxy, which contains the task description user_proxy.initiate_chat( assistant, message="""Create a posting schedule with captions in instagram for a week and store it in a .csv file.""", )
अपने शुरुआती ऑर्डर के साथ message=”…” बदलना याद रखें।
यदि आप केवल संदेश के साथ स्क्रिप्ट चलाते हैं, तो आपको एजेंट द्वारा "मैन्युअल रूप से" बनाई गई एक .csv फ़ाइल के साथ "एजेंट-वर्कस्पेस" नामक एक नई निर्देशिका दिखाई दे सकती है।
अब आइए कुछ और उन्नत चीज़ की ओर चलें।
भूमिकाओं और संदर्भों वाले एकाधिक एजेंट।
यह आपके परिचित किसी भी मैसेजिंग ऐप की तरह एक "चैट ग्रुप" की तरह काम करेगा। उनके संदर्भ (सिस्टम संदेश) उन्हें बताएंगे कि कैसे व्यवहार करना है, और किस पदानुक्रम का उन्हें पालन करना चाहिए। इस बार हमारे पास होगा:
import autogen #Use the local LLM server same as before config_list = [ { "model": "mistral-instruct-7b", #the name of your running model "api_base": "http://127.0.0.1:5001/v1", #the local address of the api "api_type": "open_ai", "api_key": "sk-111111111111111111111111111111111111111111111111", # just a placeholder } ] # set a "universal" config for the agents agent_config = { "seed": 42, # change the seed for different trials "temperature": 0, "config_list": config_list, "request_timeout": 120, } # humans user_proxy = autogen.UserProxyAgent( name="Admin", system_message="A human admin. Interact with the planner to discuss the plan. Plan execution needs to be approved by this admin.", code_execution_config=False, ) executor = autogen.UserProxyAgent( name="Executor", system_message="Executor. Execute the code written by the engineer and report the result.", human_input_mode="NEVER", code_execution_config={"last_n_messages": 3, "work_dir": "paper"}, ) # agents engineer = autogen.AssistantAgent( name="Engineer", llm_config=agent_config, system_message='''Engineer. You follow an approved plan. You write python/shell code to solve tasks. Wrap the code in a code block that specifies the script type. The user can't modify your code. So do not suggest incomplete code which requires others to modify. Don't use a code block if it's not intended to be executed by the executor. Don't include multiple code blocks in one response. Do not ask others to copy and paste the result. Check the execution result returned by the executor. If the result indicates there is an error, fix the error and output the code again. Suggest the full code instead of partial code or code changes. If the error can't be fixed or if the task is not solved even after the code is executed successfully, analyze the problem, revisit your assumption, collect additional info you need, and think of a different approach to try. ''', ) scientist = autogen.AssistantAgent( name="Scientist", llm_config=agent_config, system_message="""Scientist. You follow an approved plan. You are able to categorize papers after seeing their abstracts printed. You don't write code.""" ) planner = autogen.AssistantAgent( name="Planner", system_message='''Planner. Suggest a plan. Revise the plan based on feedback from admin and critic, until admin approval. The plan may involve an engineer who can write code and a scientist who doesn't write code. Explain the plan first. Be clear which step is performed by an engineer, and which step is performed by a scientist. ''', llm_config=agent_config, ) critic = autogen.AssistantAgent( name="Critic", system_message="Critic. Double check plan, claims, code from other agents and provide feedback. Check whether the plan includes adding verifiable info such as source URL.", llm_config=agent_config, ) # start the "group chat" between agents and humans groupchat = autogen.GroupChat(agents=[user_proxy, engineer, scientist, planner, executor, critic], messages=[], max_round=50) manager = autogen.GroupChatManager(groupchat=groupchat, llm_config=agent_config) # Start the Chat! user_proxy.initiate_chat( manager, message=""" find papers on LLM applications from arxiv in the last week, create a markdown table of different domains. """, ) # to followup of the previous question, use: # user_proxy.send( # recipient=assistant, # message="""your followup response here""", # )
वहां आप जाएं, आपके पास एजेंटों की नई सेना है।
मैं यह समझने के लिए ऑटोजेन दस्तावेज़ीकरण में गहराई से जाने की दृढ़ता से अनुशंसा करता हूं कि इस प्रकार की एजेंसी स्वचालन और क्या करने में सक्षम है।
इसके अलावा, यह समझने के बाद कि ऑटोजेन हुड के नीचे कैसे काम करता है, आप इसे इंटरफ़ेस के माध्यम से उपयोग करना चाह सकते हैं
अब यह आप पर निर्भर है। हम मनुष्यों के लिए बेहतर भविष्य का निर्माण करने के लिए, ऑर्केस्ट्रा एजेंट ओपनएआई सीमाओं से मुक्त हो गए। हमेशा याद रखें कि महान शक्ति के साथ बड़ी जिम्मेदारी भी आती है। तो, आप आगे क्या बना रहे हैं?
यह पोस्ट पूरी तरह से एक human™ द्वारा लिखा गया था
यहाँ भी प्रकाशित किया गया है.