Bu, Üretken Yapay Zeka için çıkış yılıdır
Kuyu; En azından söylemek gerekirse, bu yıl bir Yüksek Lisans Modelini yerel olarak nasıl çalıştıracağım konusunda seçim yapmakta zorlandım.
Hadi başlayalım:
Bing Image Creator Tarafından Oluşturulan Tüm Görseller
Hugging Face Transformers'ı internet erişimi olmadan çevrimdışı çalıştırmak için şu adımları izleyin: Transformers'ı gerekli bağımlılıklarla yükleyin ve kurulum sırasında otomatik güncellemelere güvenmediğinizden emin olun. Hugging Face belgelerinde açıklandığı gibi pip veya conda aracılığıyla kurulum yapabilirsiniz.
pip install transformers==4.xy
Önceden eğitilmiş modelleri internet erişimi olan Hugging Face Hub'dan indirdikten sonra yerel makinenizden yükleyin. Modeli save_pretrained() kullanarak kaydedin ve daha sonra çevrimdışı modda yükleyin.
from transformers import AutoModelForSequenceClassification, BertTokenizerFast
model = AutoModelForSequenceClassification.from_pretrained("bert-base-uncased") model.save_pretrained("/my/local/directory/bert-base-uncased")
model = AutoModelForSequenceClassification.from_pretrained("/my/local/directory/bert-base-uncased") tokenizer = BertTokenizerFast.from_pretrained("/my/local/directory/bert-base-uncased")
Çevrimdışı kullanımı etkinleştirmek için TRANSFORMERS_OFFLINE ve HF_DATASETS_OFFLINE ortam değişkenlerini ayarlayın.
export TRANSFORMERS_OFFLINE=1 export HF_DATASETS_OFFLINE=1
Tek tek dosyaları indirmemeyi tercih ediyorsanız model deposunu doğrudan klonlayın.
git clone https://huggingface.co/<username>/<repository> /my/local/directory
Komut dosyalarınızı çalıştırmayı planladığınız dizinde gerekli tüm dosyaların bulunduğundan emin olun. Model zaten yerel olarak mevcut değilse, TRANSFORMERS_OFFLINE'ı yalnızca 1 olarak ayarlamanın işe yaramayacağını unutmayın. Modeli internet erişimiyle indirip yerel olarak kaydetmeniz veya model deposunu klonlamanız gerekir.
gpt4all, herkesin GPT-3 gibi güçlü yapay zeka modellerine erişmesine ve kullanmasına olanak tanıyan açık kaynaklı bir projedir. İşte gpt4all'ı yüklemek ve kullanmak için adım adım talimatlar:
pip install gpt4all
OPENAI_API_KEY
adlı bir ortam değişkenini değer olarak API anahtarınızla ayarlayın. export OPENAI_API_KEY="YOUR_API_KEY_HERE"
from gpt4all import completions summary = completions.generate(engine="text-davinci-003", prompt="Summarize this text: [insert long text here]", max_tokens=50) print(summary.text)
Ollamma, GPT-3 gibi büyük dil modellerine kolay erişim sağlayan açık kaynaklı bir kütüphanedir. Sistem gereksinimleri, kurulumu ve kullanımına ilişkin ayrıntılar şunlardır:
Sistem gereksinimleri:
Kurulum:
pip install ollamma
Kullanımı:
import os os.environ["OPENAI_API_KEY"] = "<YOUR_API_KEY>"
from ollamma import Client client = Client()
response = client.generate( engine="text-davinci-003", prompt="Hello world", max_tokens=100 ) print(response.generations[0].text)
Oluşturma yöntemi, isteğinizi yapılandırmak için motoru, istemi ve maksimum belirteç gibi parametreleri belirtmenize olanak tanır.
Ayrıca motorlara ince ayar yapabilir, içeriği denetleyebilir ve daha fazlasını yapabilirsiniz. Mevcut tüm yöntemlere ilişkin ek ayrıntılar için Ollamma belgelerine bakın.
Özetle - Ollamma, yüklendikten ve yapılandırıldıktan sonra yalnızca birkaç satırlık Python koduyla GPT-3 ve diğer modellerden yararlanmayı gerçekten kolaylaştırıyor!
LM Studio, en son teknolojiye sahip dil modellerini yerel olarak eğitme, değerlendirme ve kullanma sürecini kolaylaştıran açık kaynaklı bir araçtır. LM Studio'nun yerel olarak çalışmasını sağlamanın adımları şunlardır:
A. Makinenize Docker Engine ve Docker Compose'u yükleyin
B. LM Studio GitHub deposunu klonlayın:
git clone https://github.com/lm-studio/lm-studio.git
config/
klasörü altındaki yapılandırma dosyalarını kullanır. Ortak dosyalar şunları içerir: A. model.yaml
: model mimarilerini belirtin
B. training.yaml
: eğitim parametrelerini ayarlayın
C. evaluation.yaml
: değerlendirme ayarlarını düzenleyin
A. Görüntüler oluşturun: docker-compose build
B. Tüm hizmetleri başlat: docker-compose up -d
C. Günlükleri görüntüle: docker-compose logs -f
D. Hizmetleri durdurun: docker-compose down
Hizmetler, kullanıcı arayüzü, API'ler, not defterleri ve daha fazlasıyla etkileşimde bulunmak için kullanabileceğiniz çeşitli bağlantı noktalarını kullanıma sunar.
Özetle, LM Studio yerel dil modeli denemelerini kolaylaştırıyor. Kullanıcıların modelleri eğitmeye, değerlendirmeye ve kullanmaya başlamak için repoyu kopyalaması, ayar dosyalarını yapılandırması ve basit Docker komutlarını kullanması yeterlidir.
Bunun en uygun ve basit yol olduğunu düşünüyorum. Açıklamanın tamamı aşağıdaki linkte yer almaktadır:
Özetlenmiş:
localllm
Cloud Workstations ile bir araya gelerek, Google Cloud ortamında CPU ve bellek üzerinde yerel olarak LLM'leri kullanmanıza olanak tanıyarak yapay zeka odaklı uygulama geliştirmede devrim yaratıyor. GPU ihtiyacını ortadan kaldırarak, GPU kıtlığının yarattığı zorlukların üstesinden gelebilir ve Yüksek Lisans'ın tüm potansiyelini ortaya çıkarabilirsiniz. Gelişmiş üretkenlik, maliyet verimliliği ve iyileştirilmiş veri güvenliğiyle localllm, yenilikçi uygulamaları kolaylıkla oluşturmanıza olanak tanır
Yerel eğitim ve çıkarım amacıyla Llama.cpp'yi yüklemek ve kullanmak için şu adımları izleyin:
Bağımlılıkları yükleyin:
Python 3 CMake Optional (for GPU acceleration) NVIDIA drivers, CUDA, and cuDNN For Windows, use Visual Studio Community with Desktop C++ Environment and Python 3 Clone the repository:
git clone --recursive https://github.com/abetlen/llama-cpp-python.git GPU hızlandırmayı kullanmak istiyorsanız ortam değişkenini depoda açıklandığı gibi ayarlayın (örneğin, Linux'ta):
export CMAKE_ARGS="-DLLAMA_CUBLAS=ON" Install Llamma.cpp:
Yerel derleme ve sistem derlemesi için:
cd llama-cpp-python pip install -e . For Windows, or if you want prebuilt binaries, consider the following: No GPU support: pip install llama-cpp-python[server]
python -m llama_cpp.server --model models/7B/llama-model.gguf With GPU support: set FORCE_CMAKE=1 set CMAKE_ARGS=-DLLAMA_CUBLAS=ON pip install --upgrade --force-reinstall llama-cpp-python --no-cache-dir
python -m llama_cpp.server --model "path/to/your/model" Download and place Llama models in the models/ subdirectory within the Llama.cpp repository if they are not included (models like llama-model.gguf or ggml-* files are available on Hugging Face or GGML).
The llama_cpp/llama_cpp.py script provides a simple high-level interface in Python. Replace llama-model.gguf with your downloaded Llama model to test inference. If you want to train your own Llama model, you'll need to train it according to the official documentation and manually convert the GGML files into GGUF files (for GPU deployment).
Bu, langchain kullanarak metin oluşturmak için bir webui'nin açık kaynaklı kademeli uygulamasıdır.
README.md dosyasından bazı alıntılar:
Bu, aşağıdakiler için bir uzantı dizinidir:
Kendi uzantınızı oluşturursanız, bunu bir PR ile bu listeye gönderebilirsiniz.
Sohbet modunda botlar için uzun süreli hafıza oluşturan gelişmiş bir uzantı.
AllTalk, Metin oluşturma web kullanıcı arayüzü için Coqui_tts uzantısına benzer şekilde Coqui TTS motorunu temel alır, ancak çeşitli gelişmiş özellikleri destekler.
Botunuz için hızlı bir İnternet erişimi sağlamak üzere acheong08'in EdgeGPT tabanlı Metin Oluşturma Webui uzantısı.
Ana depodaki coqui_tts uzantısının bir çeşidi. Her ikisi de XTTSv2 modelini kullanır, ancak bu modelin *yıldız işaretleri arasına* yazılan metinler için bir "anlatıcı" özelliği vardır.
Bu uzantı, her zaman üst sekmede bulunacak bağımsız, gelişmiş bir dizüstü bilgisayar sağlar. Dizüstü bilgisayarda bulunmayan birçok özelliğe sahiptir:
Ve keşfedecek çok daha fazlası var: Şuna göz atın:
https://github.com/oobabooga/text-jenerasyon-webui-extensions
Ve dahası da var! Çok daha fazla! LangChain, llm, ollamma, liste gittikçe büyüyor!
İşte güzel yaratıcılıkla dolu muhteşem bir yıl. Şerefe!