এটি জেনারেটিভ এআই-এর জন্য ব্রেকআউট বছর
আমরা হব; খুব কম বলতে, এই বছর আমি স্থানীয়ভাবে এলএলএম মডেল কীভাবে চালাতে পারি তা বেছে নেওয়ার জন্য নষ্ট হয়ে গেছি।
চল শুরু করি:
সমস্ত ছবি বিং ইমেজ ক্রিয়েটর দ্বারা তৈরি
ইন্টারনেট অ্যাক্সেস ছাড়াই অফলাইনে আলিঙ্গন ফেস ট্রান্সফরমার চালাতে, এই পদক্ষেপগুলি অনুসরণ করুন: ইনস্টলেশনের সময় আপনি স্বয়ংক্রিয় আপডেটের উপর নির্ভর করবেন না তা নিশ্চিত করে প্রয়োজনীয় নির্ভরতা সহ ট্রান্সফরমারগুলি ইনস্টল করুন৷ Hugging Face ডকুমেন্টেশনে বর্ণিত হিসাবে আপনি pip বা conda এর মাধ্যমে ইনস্টল করতে পারেন
pip install transformers==4.xy
ইন্টারনেট অ্যাক্সেস সহ Hugging Face Hub থেকে ডাউনলোড করার পরে আপনার স্থানীয় মেশিন থেকে পূর্বপ্রশিক্ষিত মডেলগুলি লোড করুন৷ save_pretrained() ব্যবহার করে মডেলটি সংরক্ষণ করুন এবং তারপরে এটি অফলাইন মোডে লোড করুন।
from transformers import AutoModelForSequenceClassification, BertTokenizerFast
model = AutoModelForSequenceClassification.from_pretrained("bert-base-uncased") model.save_pretrained("/my/local/directory/bert-base-uncased")
model = AutoModelForSequenceClassification.from_pretrained("/my/local/directory/bert-base-uncased") tokenizer = BertTokenizerFast.from_pretrained("/my/local/directory/bert-base-uncased")
অফলাইন ব্যবহার সক্ষম করতে পরিবেশ ভেরিয়েবল TRANSFORMERS_OFFLINE এবং HF_DATASETS_OFFLINE সেট করুন৷
export TRANSFORMERS_OFFLINE=1 export HF_DATASETS_OFFLINE=1
আপনি পৃথক ফাইল ডাউনলোড করতে না চাইলে সরাসরি মডেল সংগ্রহস্থল ক্লোন করুন।
git clone https://huggingface.co/<username>/<repository> /my/local/directory
নিশ্চিত করুন যে সমস্ত প্রয়োজনীয় ফাইল ডিরেক্টরিতে উপস্থিত রয়েছে যেখানে আপনি আপনার স্ক্রিপ্টগুলি চালানোর পরিকল্পনা করছেন। মনে রাখবেন যে মডেলটি ইতিমধ্যে স্থানীয়ভাবে উপলব্ধ না হলে একা 1-এ TRANSFORMERS_OFFLINE সেট করা কাজ করবে না৷ আপনাকে অবশ্যই ইন্টারনেট অ্যাক্সেস সহ মডেলটি ডাউনলোড করতে হবে এবং স্থানীয়ভাবে সংরক্ষণ করতে হবে বা মডেল সংগ্রহস্থলটি ক্লোন করতে হবে।
gpt4all হল একটি ওপেন সোর্স প্রজেক্ট যা যে কেউ GPT-3 এর মত শক্তিশালী AI মডেলগুলি অ্যাক্সেস করতে এবং ব্যবহার করতে দেয়। এখানে gpt4all ইনস্টল এবং ব্যবহার করার জন্য ধাপে ধাপে নির্দেশাবলী রয়েছে:
pip install gpt4all
OPENAI_API_KEY
নামে একটি পরিবেশ পরিবর্তনশীল সেট করুন। export OPENAI_API_KEY="YOUR_API_KEY_HERE"
from gpt4all import completions summary = completions.generate(engine="text-davinci-003", prompt="Summarize this text: [insert long text here]", max_tokens=50) print(summary.text)
Ollamma হল একটি ওপেন সোর্স লাইব্রেরি যা GPT-3 এর মত বড় ভাষার মডেলগুলিতে সহজে অ্যাক্সেস প্রদান করে। এখানে এর সিস্টেমের প্রয়োজনীয়তা, ইনস্টলেশন এবং ব্যবহারের বিশদ বিবরণ রয়েছে:
সিস্টেমের জন্য আবশ্যক:
স্থাপন:
pip install ollamma
ব্যবহার:
import os os.environ["OPENAI_API_KEY"] = "<YOUR_API_KEY>"
from ollamma import Client client = Client()
response = client.generate( engine="text-davinci-003", prompt="Hello world", max_tokens=100 ) print(response.generations[0].text)
জেনারেট পদ্ধতি আপনাকে আপনার অনুরোধ কনফিগার করতে ইঞ্জিন, প্রম্পট এবং সর্বোচ্চ টোকেনের মতো পরামিতিগুলি নির্দিষ্ট করতে দেয়।
আপনি সূক্ষ্ম-টিউন ইঞ্জিন, পরিমিত বিষয়বস্তু এবং আরও অনেক কিছু করতে পারেন। সমস্ত উপলব্ধ পদ্ধতির অতিরিক্ত বিবরণের জন্য Ollamma ডকুমেন্টেশন পড়ুন।
তাই সংক্ষেপে - একবার ইনস্টল এবং কনফিগার করা হলে ওলাম্মা পাইথন কোডের মাত্র কয়েকটি লাইনে GPT-3 এবং অন্যান্য মডেলের সুবিধা নেওয়া সত্যিই সহজ করে তোলে!
এলএম স্টুডিও একটি ওপেন সোর্স টুল যা স্থানীয়ভাবে অত্যাধুনিক ভাষার মডেল প্রশিক্ষণ, মূল্যায়ন এবং ব্যবহার করার প্রক্রিয়াকে স্ট্রিমলাইন করে। স্থানীয়ভাবে এলএম স্টুডিও চালানোর পদক্ষেপগুলি এখানে রয়েছে:
ক আপনার মেশিনে ডকার ইঞ্জিন এবং ডকার কম্পোজ ইনস্টল করুন
খ. এলএম স্টুডিও গিটহাব সংগ্রহস্থল ক্লোন করুন:
git clone https://github.com/lm-studio/lm-studio.git
config/
ফোল্ডারের অধীনে কনফিগারেশন ফাইলের উপর নির্ভর করে। সাধারণ ফাইল অন্তর্ভুক্ত: ক model.yaml
: মডেল আর্কিটেকচার উল্লেখ করুন
খ. training.yaml
: প্রশিক্ষণের পরামিতি সেট করুন
গ. evaluation.yaml
: মূল্যায়ন সেটিংস সামঞ্জস্য করুন
ক বিল্ড ইমেজ: docker-compose build
খ. সমস্ত পরিষেবা শুরু করুন: docker-compose up -d
গ. লগগুলি দেখুন: docker-compose logs -f
d পরিষেবা বন্ধ করুন: docker-compose down
পরিষেবাগুলি বিভিন্ন পোর্ট প্রকাশ করে যা আপনি UI, API, নোটবুক এবং আরও অনেক কিছুর সাথে ইন্টারঅ্যাক্ট করতে ব্যবহার করতে পারেন।
তাই সংক্ষেপে, এলএম স্টুডিও স্থানীয় ভাষা মডেল পরীক্ষাকে স্ট্রিমলাইন করে। ব্যবহারকারীদের শুধু রেপো ক্লোন করতে হবে, সেটিংস ফাইল কনফিগার করতে হবে এবং প্রশিক্ষণ, মূল্যায়ন এবং মডেল ব্যবহার শুরু করতে সাধারণ ডকার কমান্ড ব্যবহার করতে হবে।
আমি খুঁজে পাই যে এটিই সবচেয়ে সুবিধাজনক এবং সহজ উপায়। সম্পূর্ণ ব্যাখ্যা নীচের লিঙ্কে দেওয়া হয়েছে:
সংক্ষিপ্ত:
ক্লাউড ওয়ার্কস্টেশনের সাথে মিলিত
localllm
আপনাকে Google ক্লাউড পরিবেশের মধ্যে CPU এবং মেমরিতে স্থানীয়ভাবে LLM ব্যবহার করতে দিয়ে AI-চালিত অ্যাপ্লিকেশন বিকাশে বিপ্লব ঘটায়। জিপিইউ-এর প্রয়োজনীয়তা দূর করে, আপনি জিপিইউ ঘাটতির কারণে সৃষ্ট চ্যালেঞ্জগুলি কাটিয়ে উঠতে পারেন এবং এলএলএম-এর সম্পূর্ণ সম্ভাবনাকে আনলক করতে পারেন। বর্ধিত উত্পাদনশীলতা, খরচ দক্ষতা এবং উন্নত ডেটা নিরাপত্তার সাথে, localllm আপনাকে সহজে উদ্ভাবনী অ্যাপ্লিকেশন তৈরি করতে দেয়
স্থানীয় প্রশিক্ষণ এবং অনুমানের জন্য Llama.cpp ইনস্টল এবং ব্যবহার করতে, এই পদক্ষেপগুলি অনুসরণ করুন:
নির্ভরতা ইনস্টল করুন:
Python 3 CMake Optional (for GPU acceleration) NVIDIA drivers, CUDA, and cuDNN For Windows, use Visual Studio Community with Desktop C++ Environment and Python 3 Clone the repository:
git ক্লোন --recursive https://github.com/abetlen/llama-cpp-python.git আপনি যদি GPU ত্বরণ ব্যবহার করতে চান, তাহলে রেপোতে বর্ণিত পরিবেশের পরিবর্তনশীল সেট করুন (উদাহরণস্বরূপ, লিনাক্সে):
export CMAKE_ARGS="-DLLAMA_CUBLAS=ON" Install Llamma.cpp:
স্থানীয় বিল্ড এবং সিস্টেম সংকলনের জন্য:
cd llama-cpp-python pip install -e . For Windows, or if you want prebuilt binaries, consider the following: No GPU support: pip install llama-cpp-python[server]
python -m llama_cpp.server --model models/7B/llama-model.gguf With GPU support: set FORCE_CMAKE=1 set CMAKE_ARGS=-DLLAMA_CUBLAS=ON pip install --upgrade --force-reinstall llama-cpp-python --no-cache-dir
python -m llama_cpp.server --model "path/to/your/model" Download and place Llama models in the models/ subdirectory within the Llama.cpp repository if they are not included (models like llama-model.gguf or ggml-* files are available on Hugging Face or GGML).
The llama_cpp/llama_cpp.py script provides a simple high-level interface in Python. Replace llama-model.gguf with your downloaded Llama model to test inference. If you want to train your own Llama model, you'll need to train it according to the official documentation and manually convert the GGML files into GGUF files (for GPU deployment).
এটি ল্যাংচেইন ব্যবহার করে পাঠ্য তৈরি করার জন্য একটি ওয়েবইয়ের একটি ওপেন সোর্স গ্র্যাডিও বাস্তবায়ন।
README.md ফাইল থেকে কিছু উদ্ধৃতি:
এটির জন্য এক্সটেনশনের একটি ডিরেক্টরি
আপনি যদি নিজের এক্সটেনশন তৈরি করেন, তাহলে আপনাকে PR এ এই তালিকায় জমা দিতে স্বাগত জানাই।
একটি পরিশীলিত এক্সটেনশন যা চ্যাট মোডে বটগুলির জন্য একটি দীর্ঘমেয়াদী মেমরি তৈরি করে৷
AllTalk Coqui TTS ইঞ্জিনের উপর ভিত্তি করে তৈরি করা হয়েছে, যা Coqui_tts এক্সটেনশনের মতই টেক্সট জেনারেশন ওয়েবইউআইয়ের জন্য, তবে বিভিন্ন উন্নত বৈশিষ্ট্য সমর্থন করে।
আপনার বটের জন্য দ্রুত ইন্টারনেট অ্যাক্সেসের জন্য acheong08 দ্বারা EdgeGPT-এর উপর ভিত্তি করে টেক্সট জেনারেশন Webui-এর জন্য এক্সটেনশন।
প্রধান সংগ্রহস্থলে coqui_tts এক্সটেনশনের একটি রূপ। উভয়ই XTTSv2 মডেল ব্যবহার করে, তবে এটিতে *তারকাগুলির মধ্যে* লেখা পাঠ্যের জন্য একটি "কথক" বৈশিষ্ট্য রয়েছে।
এই এক্সটেনশনটি একটি স্বাধীন উন্নত নোটবুক প্রদান করে যা সর্বদা শীর্ষ ট্যাব থেকে উপস্থিত থাকবে। এটির অনেক বৈশিষ্ট্য রয়েছে যা নোটবুকে পাওয়া যায় না:
এবং আমাদের অন্বেষণ করার জন্য আরও অনেক কিছু আছে: দেখুন:
https://github.com/oobabooga/text-generation-webui-extensions
এবং আরো আছে! আরও অনেক কিছু! LangChain, llm, ollamma, তালিকা শুধু বড় এবং বড় হতে থাকে!
এখানে সুন্দর সৃজনশীলতার একটি গৌরবময় বছর। চিয়ার্স!