ChatGPT'nin yapay zeka endüstrisinde tek çözüm olduğu günler çoktan geride kaldı. Sırasıyla Meta ve Google tarafından geliştirilen LLaMA ve Gemini gibi yeni oyuncular sahaya girdi. Farklı araçlara ve uygulamalara rağmen ortak bir noktaları paylaşıyorlar: Kapalı kaynaklılar (LLaMA için bazı istisnalar dışında) ve büyük teknoloji şirketlerinin kontrolü altındalar.
Bu makale yapay zeka sektöründe ChatGPT 3.5'ten daha iyi performans gösteren ve yerel olarak çalıştırılabilen açık kaynaklı bir araca sahip yeni bir rakibi araştırıyor. Ayrıca onu sansürsüz olarak nasıl kullanacağımızı ve kendi verilerimizle nasıl eğiteceğimizi de öğreneceğiz.
Mistral, eski Meta ve DeepMind araştırmacıları tarafından kurulmuş bir Fransız girişimidir. Engin bilgi ve deneyimlerinden yararlanarak 415 milyon ABD doları tutarında yatırımı başarıyla gerçekleştirerek Mistral'in değerlemesini 2 milyar ABD dolarına çıkardılar.
Mistral'deki ekip, yeni modelleri Mistral 8x7B'ye X üzerinden bir torrent bağlantısı bıraktıklarında ilgi kazanmaya başladı. Apache 2.0 lisansına göre bu model, LLaMA 2 ve ChatGPT 3.5'ten daha güçlü olmasının yanı sıra tamamen açık kaynaklıdır.
Testlerde Mistral, kıyaslamaların çoğunda LLaMA 2 70B'yi aşarak ve ayrıca diğer kıyaslamalarda ChatGPT 3.5 ile eşleşerek veya ondan daha iyi performans göstererek olağanüstü bir güç sergiledi.
Şekil ve tabloların ötesine geçerek pratik yapmaya başlayalım. Öncelikle yerel olarak çalıştırmamıza yardımcı olacak bir araca ihtiyacımız olacak: Ollama . MacOS kullanıcıları dosyayı buradan indirebilir. Linux veya WSL kullanıcıları için aşağıdaki komutları terminalinize yapıştırın:
curl https://ollama.ai/install.sh | sh
Daha sonra LLM'leri yerel olarak çalıştırabiliriz, ancak yalnızca bir yapay zekanın rastgele soruları yanıtlamasını hedeflemiyoruz - ChatGPT bunun için var. Tercihlerimize göre ince ayar yapabileceğimiz ve ince ayar yapabileceğimiz sansürsüz bir yapay zeka hedefliyoruz.
Bunu göz önünde bulundurarak Mistral'in tüm kısıtlamaları kaldıran özel bir versiyonu olan dolphin-mistral'ı kullanacağız. Dolphin-mistral'ın bu kısıtlamaları nasıl ortadan kaldırdığı hakkında daha fazla bilgi edinmek için yaratıcısının bu makalesine göz atın.
Ollama'yı bilgisayarınızda çalıştırmaya başlamak için terminalinizde aşağıdaki komutu çalıştırın:
ollama serve
Ardından başka bir terminalde şunu çalıştırın:
ollama run dolphin-mistral:latest
İlk indirme, 26GB'lık bir indirmeyi gerektirdiğinden zaman alıcı olabilir. İndirme işlemi tamamlandığında mistral girişinizi bekleyecektir.
Dolphin-mistral'ı çalıştırmanın önemli miktarda sistem kaynağı, özellikle de RAM gerektirdiğini unutmayın.
Şimdi, mistral'ı verilerinizle eğitme olanaklarını merak ediyor olabilirsiniz. Cevap kocaman bir evet.
Hugging Face'te bir hesap oluşturarak başlayın (henüz yapmadıysanız) ve ardından yeni bir alan oluşturun.
Autotrain için Docker'ı seçin
Buradan modelinizi seçebilir, verilerinizi yükleyebilir ve eğitime başlayabilirsiniz. Bir modeli ev bilgisayarında eğitmek, donanım talepleri nedeniyle zorlayıcı olabilir.
Hugging Face gibi hizmetler bilgi işlem gücü sunar (ücret karşılığında), ancak süreci hızlandırmak için Amazon Bedrock veya Google Vertex AI'yi de düşünebilirsiniz.