यह जनरेटिव एआई के लिए सफलता का वर्ष है
खैर; कम से कम इतना तो कहा ही जा सकता है कि इस वर्ष मेरे पास एलएलएम मॉडल को स्थानीय स्तर पर चलाने के लिए ढेरों विकल्प मौजूद हैं।
चलो शुरू करो:
सभी छवियाँ Bing Image Creator द्वारा बनाई गई हैं
इंटरनेट एक्सेस के बिना हगिंग फेस ट्रांसफॉर्मर्स को ऑफ़लाइन चलाने के लिए, इन चरणों का पालन करें: ट्रांसफॉर्मर्स को आवश्यक निर्भरताओं के साथ इंस्टॉल करें, जबकि यह सुनिश्चित करें कि आप इंस्टॉलेशन के दौरान स्वचालित अपडेट पर निर्भर न हों। आप हगिंग फेस डॉक्यूमेंटेशन में बताए अनुसार पाइप या कोंडा के माध्यम से इंस्टॉल कर सकते हैं
pip install transformers==4.xy
इंटरनेट एक्सेस के साथ हगिंग फेस हब से डाउनलोड करने के बाद अपने स्थानीय मशीन से प्रीट्रेन्ड मॉडल लोड करें। मॉडल को save_pretrained() का उपयोग करके सेव करें, और फिर बाद में इसे ऑफ़लाइन मोड में लोड करें।
from transformers import AutoModelForSequenceClassification, BertTokenizerFast
model = AutoModelForSequenceClassification.from_pretrained("bert-base-uncased") model.save_pretrained("/my/local/directory/bert-base-uncased")
model = AutoModelForSequenceClassification.from_pretrained("/my/local/directory/bert-base-uncased") tokenizer = BertTokenizerFast.from_pretrained("/my/local/directory/bert-base-uncased")
ऑफ़लाइन उपयोग सक्षम करने के लिए पर्यावरण चर TRANSFORMERS_OFFLINE और HF_DATASETS_OFFLINE सेट करें।
export TRANSFORMERS_OFFLINE=1 export HF_DATASETS_OFFLINE=1
यदि आप अलग-अलग फ़ाइलें डाउनलोड नहीं करना चाहते हैं तो मॉडल रिपोजिटरी को सीधे क्लोन करें।
git clone https://huggingface.co/<username>/<repository> /my/local/directory
सुनिश्चित करें कि सभी आवश्यक फ़ाइलें उस निर्देशिका में मौजूद हैं जहाँ आप अपनी स्क्रिप्ट निष्पादित करने की योजना बना रहे हैं। याद रखें कि यदि मॉडल पहले से ही स्थानीय रूप से उपलब्ध नहीं है, तो TRANSFORMERS_OFFLINE को 1 पर सेट करना काम नहीं करेगा। आपको या तो इंटरनेट एक्सेस के साथ मॉडल डाउनलोड करना होगा और इसे स्थानीय रूप से सहेजना होगा या मॉडल रिपॉजिटरी को क्लोन करना होगा।
gpt4all एक ओपन-सोर्स प्रोजेक्ट है जो किसी को भी GPT-3 जैसे शक्तिशाली AI मॉडल तक पहुंचने और उपयोग करने की अनुमति देता है। gpt4all को इंस्टॉल करने और उपयोग करने के लिए चरण-दर-चरण निर्देश यहां दिए गए हैं:
pip install gpt4all
OPENAI_API_KEY
नामक एक पर्यावरण चर सेट करें। export OPENAI_API_KEY="YOUR_API_KEY_HERE"
from gpt4all import completions summary = completions.generate(engine="text-davinci-003", prompt="Summarize this text: [insert long text here]", max_tokens=50) print(summary.text)
ओलम्मा एक ओपन सोर्स लाइब्रेरी है जो GPT-3 जैसे बड़े भाषा मॉडल तक आसान पहुँच प्रदान करती है। यहाँ इसकी सिस्टम आवश्यकताओं, इंस्टॉलेशन और उपयोग के बारे में विवरण दिए गए हैं:
सिस्टम आवश्यकताएं:
स्थापना:
pip install ollamma
उपयोग:
import os os.environ["OPENAI_API_KEY"] = "<YOUR_API_KEY>"
from ollamma import Client client = Client()
response = client.generate( engine="text-davinci-003", prompt="Hello world", max_tokens=100 ) print(response.generations[0].text)
जेनरेट विधि आपको अपने अनुरोध को कॉन्फ़िगर करने के लिए इंजन, प्रॉम्प्ट और अधिकतम टोकन जैसे पैरामीटर निर्दिष्ट करने की अनुमति देती है।
आप इंजन को फाइन-ट्यून कर सकते हैं, कंटेंट को मॉडरेट कर सकते हैं, और भी बहुत कुछ कर सकते हैं। सभी उपलब्ध तरीकों पर अतिरिक्त विवरण के लिए ओलम्मा दस्तावेज़ देखें।
संक्षेप में - ओलम्मा एक बार इंस्टॉल और कॉन्फ़िगर होने के बाद पायथन कोड की कुछ ही पंक्तियों में GPT-3 और अन्य मॉडलों का लाभ उठाना वास्तव में आसान बनाता है!
एलएम स्टूडियो एक ओपन सोर्स टूल है जो स्थानीय स्तर पर अत्याधुनिक भाषा मॉडल के प्रशिक्षण, मूल्यांकन और उपयोग की प्रक्रिया को सरल बनाता है। एलएम स्टूडियो को स्थानीय स्तर पर चलाने के लिए ये चरण दिए गए हैं:
a. अपनी मशीन पर Docker Engine और Docker Compose इंस्टॉल करें
बी. एलएम स्टूडियो GitHub रिपॉजिटरी को क्लोन करें:
git clone https://github.com/lm-studio/lm-studio.git
config/
फ़ोल्डर के अंतर्गत कॉन्फ़िगरेशन फ़ाइलों पर निर्भर करता है। आम फ़ाइलों में शामिल हैं: a. model.yaml
: मॉडल आर्किटेक्चर निर्दिष्ट करें
b. training.yaml
: प्रशिक्षण पैरामीटर सेट करें
c. evaluation.yaml
: मूल्यांकन सेटिंग्स समायोजित करें
a. चित्र बनाएँ: docker-compose build
b. सभी सेवाएँ प्रारंभ करें: docker-compose up -d
c. लॉग देखें: docker-compose logs -f
d. सेवाएँ बंद करें: docker-compose down
ये सेवाएं विभिन्न पोर्ट्स प्रदान करती हैं जिनका उपयोग आप यूआई, एपीआई, नोटबुक्स आदि के साथ इंटरैक्ट करने के लिए कर सकते हैं।
तो संक्षेप में, LM स्टूडियो स्थानीय भाषा मॉडल प्रयोग को सरल बनाता है। उपयोगकर्ताओं को केवल रेपो को क्लोन करना होगा, सेटिंग्स फ़ाइलों को कॉन्फ़िगर करना होगा और मॉडल का प्रशिक्षण, मूल्यांकन और उपयोग शुरू करने के लिए सरल डॉकर कमांड का उपयोग करना होगा।
मुझे लगता है कि यह सबसे सुविधाजनक और सरल तरीका है। नीचे दिए गए लिंक पर पूरी जानकारी दी गई है:
संक्षेप:
क्लाउड वर्कस्टेशन के साथ मिलकर
localllm
आपको Google क्लाउड वातावरण में CPU और मेमोरी पर स्थानीय रूप से LLM का उपयोग करने की अनुमति देकर AI-संचालित एप्लिकेशन डेवलपमेंट में क्रांति लाता है। GPU की आवश्यकता को समाप्त करके, आप GPU की कमी से उत्पन्न चुनौतियों को दूर कर सकते हैं और LLM की पूरी क्षमता को अनलॉक कर सकते हैं। बढ़ी हुई उत्पादकता, लागत दक्षता और बेहतर डेटा सुरक्षा के साथ, localllm आपको आसानी से अभिनव एप्लिकेशन बनाने देता है
स्थानीय प्रशिक्षण और अनुमान के लिए Llama.cpp को स्थापित और उपयोग करने के लिए, इन चरणों का पालन करें:
निर्भरताएं स्थापित करें:
Python 3 CMake Optional (for GPU acceleration) NVIDIA drivers, CUDA, and cuDNN For Windows, use Visual Studio Community with Desktop C++ Environment and Python 3 Clone the repository:
git clone --recursive https://github.com/abetlen/llama-cpp-python.git यदि आप GPU त्वरण का उपयोग करना चाहते हैं, तो पर्यावरण चर को रेपो में वर्णित अनुसार सेट करें (उदाहरण के लिए, लिनक्स पर):
export CMAKE_ARGS="-DLLAMA_CUBLAS=ON" Install Llamma.cpp:
स्थानीय निर्माण और सिस्टम संकलन के लिए:
cd llama-cpp-python pip install -e . For Windows, or if you want prebuilt binaries, consider the following: No GPU support: pip install llama-cpp-python[server]
python -m llama_cpp.server --model models/7B/llama-model.gguf With GPU support: set FORCE_CMAKE=1 set CMAKE_ARGS=-DLLAMA_CUBLAS=ON pip install --upgrade --force-reinstall llama-cpp-python --no-cache-dir
python -m llama_cpp.server --model "path/to/your/model" Download and place Llama models in the models/ subdirectory within the Llama.cpp repository if they are not included (models like llama-model.gguf or ggml-* files are available on Hugging Face or GGML).
The llama_cpp/llama_cpp.py script provides a simple high-level interface in Python. Replace llama-model.gguf with your downloaded Llama model to test inference. If you want to train your own Llama model, you'll need to train it according to the official documentation and manually convert the GGML files into GGUF files (for GPU deployment).
यह लैंगचेन का उपयोग करके पाठ उत्पन्न करने के लिए वेबयूआई का एक ओपन सोर्स ग्रेडियो कार्यान्वयन है।
README.md फ़ाइल से कुछ अंश:
यह एक्सटेंशन की एक निर्देशिका है
यदि आप अपना स्वयं का एक्सटेंशन बनाते हैं, तो आपका स्वागत है कि आप इसे पीआर में इस सूची में प्रस्तुत करें।
एक परिष्कृत एक्सटेंशन जो चैट मोड में बॉट्स के लिए दीर्घकालिक मेमोरी बनाता है।
ऑलटॉक कोक्वी टीटीएस इंजन पर आधारित है, जो टेक्स्ट जेनरेशन वेबयूआई के लिए कोक्वी_टीटीएस एक्सटेंशन के समान है, हालांकि यह कई उन्नत सुविधाओं का समर्थन करता है।
आपके बॉट के लिए त्वरित इंटरनेट एक्सेस के लिए, acheong08 द्वारा EdgeGPT पर आधारित टेक्स्ट जेनरेशन वेबयूआई के लिए एक्सटेंशन।
मुख्य रिपॉजिटरी में coqui_tts एक्सटेंशन का एक प्रकार। दोनों ही XTTSv2 मॉडल का उपयोग करते हैं, लेकिन इसमें *तारों के बीच* लिखे गए पाठ के लिए "वर्णनकर्ता" सुविधा है।
यह एक्सटेंशन एक स्वतंत्र उन्नत नोटबुक प्रदान करता है जो हमेशा शीर्ष टैब से मौजूद रहेगा। इसमें कई विशेषताएं हैं जो नोटबुक में नहीं पाई जाती हैं:
और वहां और भी बहुत कुछ है जिसे खोजा जा सकता है: देखें:
https://github.com/oobabooga/text-generation-webui-extensions
और भी बहुत कुछ है! और भी बहुत कुछ! लैंगचेन, एलएलएम, ओलम्मा, सूची बस बड़ी और बड़ी होती जा रही है!
सुंदर रचनात्मकता के एक शानदार वर्ष की शुभकामनाएं। चीयर्स!