Bir düzine kitabı elle özetlemeye başladım ve her özetin haftalarımı alacağını fark ettim. Sonra bu yapay zeka devriminin gerçekleştiğini hatırladım ve bu sulara atlamayı çoktan geride bıraktığıma karar verdim. . Büyük metinleri özetlemek için büyük dil modellerinin (LLM) kullanımını araştırmaya başladığımda, bunun nasıl yapılacağına dair net bir yön bulamadım Bazı sayfalarda, özetlenmesini istediğiniz kitabın içeriğini sihirli bir şekilde bileceği fikriyle GPT4'e örnek istemler verilmektedir. (OLUMSUZ) Bazıları metnimin tamamını tek seferde işleyebilecek geniş bağlamlı bir model bulmam gerektiğini önerdi. (Henüz değil) Belgeleri bir veritabanına yüklemenize ve bu veritabanının içeriğine göre soruları yanıtlamanıza olanak tanıyan bazı açık kaynaklı araçlar mevcuttur. (Yakınlaşmak) Diğerleri, önce kitabı bölümlere ayırmanızı ve bunları özetlemek için Yüksek Lisans'a teker teker beslemenizi önerdi. (Şimdi konuşuyoruz) Bu belirlemeyi yapmanın ötesinde, belirli bir Yüksek Lisans uygulanırken hesaba katılması gereken çok sayıda değişken vardır. Mevcut tüm tavsiyelere veya model sıralamalarına rağmen, diğerlerinden farklı sonuçlar elde ettiğimi hemen fark ettim. Benim kullanım durumum, model formatı, niceleme, sıkıştırma, bilgi istemi stilleri veya başka bir şey mi? Bilmiyorum. Tek bildiğim, kendi çalışma koşullarınıza göre kendi model sıralamanızı yapın. İnternette okuduğunuz bazı grafiklere inanmayın. Bu kılavuz, yukarıda belirtilen değişkenlerin ayrıntılarını belirleme ve test etme sürecime ilişkin bazı ayrıntılar sunmaktadır. . Sıralama verilerinin tamamını, izlenecek yolları ve sonuç özetlerini GitHub'da bulabilirsiniz Arka plan Anahtar terimler Bu terimlerden bazıları bağlama bağlı olarak farklı şekillerde kullanılmaktadır (kelime oyunu değildir). : (AKA Modeli) İnsan dilini anlamak ve oluşturmak için devasa veri kümeleri üzerinde eğitilmiş bir tür Yapay Zeka. Büyük Dil Modeli (LLM) : OpenAI'nin dünyayı kasıp kavuran GPT3.5 ve GPT4'ü. (Bizim durumumuzda bulunan açık kaynaklı ve/veya ücretsiz indirilebilir modeller arasından seçim yapıyoruz.) Örnek Hugging Face'te : , LLM'nin belirli bir kullanıcı sorgusuna (Belge Q/A) bir yanıt bulmak için belgeleri aradığı bir veritabanında depolamaya yönelik bir teknik. Alma Artırılmış Üretim (RAG) Meta AI tarafından geliştirilen (AKA İstemi veya Bağlam) kullanıcı tarafından sağlanan sorgudur. Kullanıcı Talimatları: Örnek: “Aşağıdaki metni özetleyin: ” { text } Kullanıcı isteminden önce verilen, yardımcınızın kişiliğini şekillendirmeye yardımcı olan özel talimatlar. Sistem İstemi: Örnek: "Yardımsever bir AI Asistanısınız." Kullanıcı talimatları ve muhtemelen bir sistem istemi ve muhtemelen önceki soru/cevap çiftleri turları. (Önceki Soru/Cevap çiftlerine yalnızca bağlam adı da verilir). Bağlam: : Bunlar, bir LLM'nin kullanıcı talimatları, sistem istemi ve önceki sorulardaki bağlam arasındaki farkı tanımak için eğitildiği özel karakter kombinasyonlarıdır. Bilgi İstemi Stili Örnek: <s>[INST] {systemPrompt} [INST] [INST] {previousQuestion} [/INST] {answer} </s> [INST] {userInstructions} [/INST] Belirli bir modeldeki parametre sayısını belirtir (daha yüksek, genellikle daha iyidir). Parametreler, modelin eğitim sırasında öğrendiği ve tahminlerde bulunmak için kullanılan iç değişkenlerdir. Benim amaçlarım açısından, 7B modellerinin 12 GB VRAM'li bir GPU'ma sığması muhtemeldir. 7B: Bu, tüketici donanımı (CPU/GPU) için tasarlanmış LLM'ye özel bir formattır. İlgilendiğiniz model ne olursa olsun, PrivateGPT'de kullanmak için onun GGUF versiyonunu (genellikle tarafından yapılır) bulmalısınız. GGUF: TheBloke Bir GGUF deposunun dosyalarına göz atarken aynı modelin farklı versiyonlarını göreceksiniz. Daha yüksek bir sayı, daha az sıkıştırılmış ve daha iyi kalite anlamına gelir. K_M'deki M "Orta", K_S'deki S ise "Küçük" anlamına gelir. Q2-Q8 0, K_M veya K_S: Bu, GPU'nuzun bellek kapasitesidir. Tamamen GPU'ya yüklemek için mevcut VRAM'ınızdan daha küçük boyutlu bir model isteyeceksiniz. VRAM: Bu, LLM'nin dili tarttığı metriktir. Her jeton yaklaşık 4 karakterden oluşur. Belirteçler: PrivateGPT nedir? PrivateGPT (pgpt), kullanıcıların LLM'yi evde kendi donanımlarıyla kullanmalarına olanak tanıyan bir kullanıcı arayüzü ve programlanabilir API sağlayan . RAG destekli Belge Soru-Cevap için belgeleri kendi yerel veritabanınıza yüklemenize olanak tanır. açık kaynaklı bir projedir : PrivateGPT Belgeleri - Genel Bakış PrivateGPT oluşturmak için gereken tüm yapı taşlarını içeren bir sağlar. API, OpenAI API standardını takip edip genişletir ve hem normal hem de akış yanıtlarını destekler. Bu, OpenAI API'yi araçlarınızdan birinde kullanabiliyorsanız, bunun yerine kendi PrivateGPT API'nizi kod değişikliği olmadan ve eğer PrivateGPT'yi modda çalıştırıyorsanız kullanabileceğiniz anlamına gelir. , özel, bağlama duyarlı yapay zeka uygulamaları API local ücretsiz olarak Genel Bakış kullanıcı arayüzünü\RAG kullanarak kitap bölümlerine sorular sorarak başladım. PrivateGPT Daha sonra özetleme için metni önceden seçmeyi denedim. Bu, sonuçlarımın ne kadar büyük bir fark göstereceğini görmek için 1. Tur sıralamaları için ilham kaynağıydı. (Önceden Seçilmiş Bölümlerin Özetlenmesi.) Daha sonra bu görevi hangi modellerin en iyi şekilde yerine getirebileceğini bulmak istedim, bu da açık ara kazanan olduğu 2. Tur sıralamasına yol açtı. Mistral-7B-Instruct-v0.2'nin Daha sonra bilgi istemi stillerini sıralayarak ve tam olarak beklenen bilgi istemi stilini elde etmek için kod yazarak bu modelden en iyi sonuçları almak istedim. Bundan sonra elbette hangisinin en iyi performansı göstereceğini görmek için çeşitli test etmek zorunda kaldım. sistem komutlarını Daha sonra, benim tarafımdan en az son işlem gerektiren özetler oluşturmak için en iyi istemin ne olduğunu belirlemek için birkaç kullanıcı istemini denedim. Sonuçta bu tür testler her LLM için ve süreçlerimizdeki herhangi bir iyileştirmenin etkinliğini belirlemek için yapılmalıdır. Bana göre, her model ancak en ideal koşulları hedeflendikten sonra birbirlerine göre uygun şekilde sıralanabilir. Sıralamalar Çeşitli LLM çeşitlerini test etmeye başladığımda PrivateGPT'nin varsayılan kurulumunun bir parçası olarak geldi (CPU'nuzda çalışacak şekilde yapıldı). Burada Q8_0 çeşitlerini tercih ettim. mistral-7b-instruct-v0.1.Q4_K_M.gguf Aynı görev için 50'den fazla farklı LLM denemiş olsam da Mistral-7B-Instruct hala en iyiler arasında, özellikle v0.2 piyasaya çıktığından beri daha iyisini bulamadım. TLDR: - özetleme görevlerinde şu anki liderim. Mistral-7B-Instruct-v0.2 1. Tur - Soru-Cevap ve Özet Soru-Cevap yaparken, veritabanına daha küçük veri yığınları yüklerken ve her seferinde temiz bir sayfa açarak başladığımda çok daha iyi sonuçlar elde ettiğimi hemen keşfettim. Böylece PDF'yi Soru-Cevap amacıyla bölümlere ayırmaya başladım. İlk analizim için aşağıdaki görevler için 5 farklı LLM'yi test ettim: Aynı 30 soruyu 70 sayfalık bir kitap bölümüne sormak. Aynı 70 sayfalık kitap bölümünün 30 parçaya bölünmüş şekilde özetlenmesi. Soru/Cevap Sıralaması - Bu testler sırasında favorim, ancak özetleri düzenlerken bunun çok ayrıntılı olduğuna karar verdim. Hermes Trismegistus Mistral 7b - Bu turda test edilen modeller arasında favorim oldu. SynthIA 7B V2 - İstediğim kadar iyi değil. Mistral 7b Instruct v0.1 Çok fazla dolgu maddesi vardı ve hepsinden en uzun süreyi aldı. Kalite/kullanışlılık açısından mistralden biraz daha yüksek puan aldı, ancak dolgu miktarı okumayı daha az zevkli hale getirdi. CollectiveCognition v1.1 Mistral 7b yanıtları çok kısaydı ve BS'sinin biraz daha öne çıkmasını sağladı. İyi bir model, ancak ayrıntılı kitap özetleri için uygun değil. KAI 7b Instruct'ın Her model için gösterilir Yanıtı oluşturmak için gereken saniye sayısı Öznel Kullanışlılık\Kalite Derecelendirmelerinin Toplamı Kaç karakter oluşturuldu? Hedef aralıkta bulunan bağlam bağlamı parçalarının toplamı. Oluşturulan metinde bulunan, aşağıda listelenen niteliklerin sayısı: Dolgu (Daha az değerli ekstra kelimeler) Kısa (Çok kısa, çalışmak için yeterli değil.) BS (Bu kitaptan değil ve faydalı değil.) İyi BS (Hedeflenen bölümden değil ancak geçerli.) Modeli Değerlendirme Arama Doğruluğu Karakterler Saniye BS Dolgu Kısa İyi Lisans hermes-trismegistus-mistral-7b 68 56 62141 298 3 4 0 6 synthia-7b-v2.0 63 59 28087 188 1 7 7 0 mistral-7b-talimat-v0.1 51 56 21131 144 3 0 17 1 kolektifbiliş-v1.1-mistral-7b 56 57 59453 377 3 10 0 0 kai-7b-talimat 44 56 21480 117 5 0 18 0 Özet Sıralaması Bu ilk turda bölüm içeriğini çeşitli konulara göre bölümlere ayırdım. Her biri 900-14000 karakter (veya 225-3500 jeton). NOT: Şimdilik çok sayıda geniş bağlam modelinin yayınlanmasına rağmen, daha küçük bağlamın daha iyi özetler sağlayacağına inanıyorum. Özetleme görevi başına 2750 jetonun (11000 karakter) fazlasını tercih etmiyorum. - Hala lider. Bazı dolgu maddeleri ile ayrıntılıdır. Bu sonuçları kullanabilirim. Hermes Trismegistus Mistral 7b - Oldukça iyi ama fazla kısa. Yanıtların çoğu mükemmeldi ancak 7'si kullanılamayacak kadar kısa/tamamlanmamış. SynthIA 7B - Çok kısa. Mistral 7b Instruct v0.1 - Çok kısa. KAI 7b Talimatı - Çok fazla çöp. Özetlerden bazıları son derece ayrıntılı ve mükemmeldi, ancak yanıtların yarısından fazlası özet değil, metne dayalı bir dizi soruydu. CollectiveCognition v1.1 Mistral 7b Özetlerin Soru-Cevap'tan çok daha iyi performans göstermesi şaşırtıcı değil ama aynı zamanda daha iyi hedeflenmiş bir bağlama da sahiplerdi. İsim Gol Oluşturulan Karakterler OG'den % Fark Oluşturulacak Saniyeler Kısa Çöp BS Doldurmak Sorular Detaylı hermes-trismegistus-mistral-7b 74 45870 -61 274 0 1 1 3 0 0 synthia-7b-v2.0 60 26849 -77 171 7 1 0 0 0 1 mistral-7b-talimat-v0.1 58 25797 -78 174 7 2 0 0 0 0 kai-7b-talimat 59 25057 -79 168 5 1 0 0 0 0 kolektifbiliş-v1.1-mistral-7b 31 29509 -75 214 0 1 1 2 17 8 Tüm verileri ve sıralamaları veya GitHub'da bulabilirsiniz: , . Google Dokümanlar'da QA Puanları Özet Sıralamalar 2. Tur: Özetleme - Model Sıralaması Ben yine 7B modellerinin Q8 versiyonlarını tercih ediyorum. yayınlandığını bulmak yeni bir test turuna değdi. Mistral 7b Instruct v0.2'nin Ayrıca istem stilini test etmeye karar verdim. PrivateGPT, Mistral istemiyle birlikte paketlenmedi ve Mistral istemi, Llama2 İstemi'ne benzese de, varsayılan (lama indeksi) istemiyle daha iyi performans gösteriyor gibi görünüyordu. - Bu model benim favorim haline gelmişti, bu yüzden onu referans olarak kullandım. SynthIA-7B-v2.0-GGUF (Llama-index Prompt) Burada gösterinin yıldızı oldukça etkileyici. Mistral-7B-Instruct-v0.2 (Llama2 İstemi) Hala iyi, ancak lama-indeks istemini kullanmak iyi değil Mistral-7B-Instruct-v0.2 kadar - Synthia v2 ile aynı yaratıcının bir başkası. İyi ama iyi değil. Tess-7B-v1.4 onun kadar - lama indeksi istemiyle iyi çalıştı ancak yavaş çalıştı. Llama2 isteminde sadece kötü. (Llama2 "Yalnızca Talimat" stiliyle tekrar test edilmelidir) Llama-2-7B-32K-Instruct-GGUF Özet Sıralaması Yalnızca özetler, Soru-Cevap, kitap özetleme açısından daha az verimlidir. Modeli % Fark Gol Yorum Synthia 7b V2 -64.43790093 28 İyi Mistral 7b Instruct v0.2 (Varsayılan İstem) -60.81878508 33 Vİyi Mistral 7b Talimatı v0.2 (Llama2 İstemi) -64.5871483 28 İyi Tess 7b v1.4 -62.12938978 29 Daha Az Yapılandırılmış Llama 2 7b 32k Talimat (Varsayılan) -61.39890553 27 Daha Az Yapılandırılmış. Yavaş Tüm verileri ve sıralamaları veya bulabilirsiniz. Google Dokümanlar'da GitHub'da 3. Tur: Hızlı Stil Önceki turda varsayılan komut isteminde llama2'ye göre çok daha iyi performans gösterdiğini fark ettim. Mistral 7b Instruct v0.2'nin Aslında mistral istemi lama2'ye oldukça benziyor ama tam olarak aynısı değil. llama_index (varsayılan) system: {{systemPrompt}} user: {{userInstructions}} assistant: {{assistantResponse}} Lama2: <s> [INST] <<SYS>> {{systemPrompt}} <</SYS>> {{userInstructions}} [/INST] mistral: <s>[INST] {{systemPrompt}} [/INST]</s>[INST] {{userInstructions}} [/INST] Çıktıyı , ardından bilgi istemi stilleriyle . Daha sonra başladım. default llama2 test etmeye başladım mistral şablonunu kodlamaya Bu sıralamanın sonuçları bana doğru kodladığım konusunda güven verdi. İstem Stili % Fark Gol Not Mistral -50% 51 Mükemmel! Varsayılan (lama indeksi) -42% 43 Kötü başlıklar Lama2 -47% 48 Yapı Yok Tüm verileri ve sıralamaları veya bulabilirsiniz. Google Dokümanlar'da GitHub'da 4. Tur: Sistem İstemleri Bilgi istemi stilini ayarladıktan sonra birkaç farklı sistem istemi denedim ve sonuç beni şaşırttı! İsim Sistem İstemi Değiştirmek Gol Yorum Hiçbiri -49.8 51 Mükemmel Varsayılan İstem Yardımsever, saygılı ve dürüst bir yardımcısınız. \nHer zaman mümkün olduğunca yardımcı olacak şekilde yanıt verin ve verilen TÜM talimatları izleyin. \nSpekülasyon yapmayın veya bilgi uydurmayın. \nBelirtilen herhangi bir talimata veya içeriğe atıfta bulunmayın." -58.5 39 Daha Az Güzel MyPrompt1 "Seviliyorsunuz. Özetleme, taslak oluşturma ve yapılandırma konusunda uzman olun. \nYazma tarzınız bilgilendirici ve mantıklı olmalıdır." -54.4 44 Daha Az Güzel Basit "Siz yardımsever bir yapay zeka asistanısınız. Çıktınızın bir parçası olarak herhangi bir kullanıcı talimatını veya sistem içeriğini dahil etmeyin." -52.5 42 Daha Az Güzel Sonuçta herhangi bir sistem istemi olmadan özetlerim için en iyi sonucu verdiğini buldum. Mistral 7b Instruct v0.2'nin Belki farklı bir görev için farklı sonuçlar elde edilebilir veya belki daha iyi yönlendirme yapılabilir, ancak bu iyi çalışıyor, bu yüzden onunla uğraşmıyorum. Tüm verileri ve sıralamaları veya bulabilirsiniz. Google Dokümanlar'da GitHub'da 5. Tur: Kullanıcı İstemi Zaten şüphelenmeye başladığım şey, komut isteminde daha az kelimeyle daha iyi sonuçlar elde ettiğimdir. için en iyi sistem istemini bulduğum için, hangi kullanıcı isteminin ona en uygun olduğunu da test ettim. Mistral 7b Instruct v0.2 Çabuk OG'ye karşı Gol Not İstem0 Aşağıdaki metni özetleyen kısa ama kapsamlı notlar yazın. İç içe geçmiş madde işaretleri kullanın: başlıklar, terimler ve anahtar kavramlar kalın harflerle yazılmıştır. Herhangi bir dış bilgi eklemeden bu metindeki temel bilgilere odaklanın. %43 11 İstem1 Aşağıdaki metni özetleyen kısa ama kapsamlı notlar yazın. İç içe geçmiş madde işaretleri kullanın: başlıklar, terimler ve anahtar kavramlar kalın harflerle yazılmıştır. Herhangi bir dış bilgi eklemeden bu metindeki temel bilgilere odaklanın. %46 11 Ekstra notlar İstem2 Aşağıdaki metni özetleyen kapsamlı notlar yazın. İç içe geçmiş madde işaretleri kullanın: başlıklar, terimler ve anahtar kavramlar kalın harflerle yazılmıştır. %58 15 İstem3 Aşağıdaki metnin önemli kısımlarını özetleyen kısa, madde işareti notları oluşturun. Okunabilirliği sağlamak için boşluklar da dahil olmak üzere kalın harflerle başlık terimleri ve anahtar kavramlarla birlikte iç içe geçmiş madde işaretleri kullanın. Tekrarlardan Kaçının. %43 10 İstem4 Aşağıdaki metni özetleyen kısa notlar yazın. İç içe geçmiş madde işaretleri kullanın: başlıklar, terimler ve anahtar kavramlar kalın harflerle yazılmıştır. %41 14 İstem5 Aşağıdaki metni özetleyen kapsamlı ancak kısa notlar oluşturun. İç içe geçmiş madde işaretleri kullanın: başlıklar, terimler ve anahtar kavramlar kalın harflerle yazılmıştır. %52 14 Ekstra notlar Tüm verileri ve sıralamaları veya bulabilirsiniz. Google Dokümanlar'da GitHub'da Belki 11b veya 30b modellerini destekleyebilen daha güçlü donanımlarla daha açıklayıcı yönlendirmelerle daha iyi sonuçlar elde edebilirim. Mistral 7b Instruct v0.2 ile bile bazı yaratıcı talimatları denemeye hâlâ açığım, ancak şimdilik mevcut sürecimi geliştirmekten mutluyum. İstem2: Kazanır! Aşağıdaki metni özetleyen kapsamlı notlar yazın. İç içe geçmiş madde işaretleri kullanın: başlıklar, terimler ve anahtar kavramlar kalın harflerle yazılmıştır. Bu durumda kapsamlı, "özlü"den, hatta "kapsamlı ama özlü"den daha iyi performans gösterir. Ancak bunun kullanım durumunuza bağlı olacağı konusunda uyarıyorum. Aradığım şey, önemli bilgileri kapsayan oldukça yoğunlaştırılmış ve okunabilir notlar. Esasen, orijinali okumamış olsaydım, her ayrıntıyı olmasa da hangi bilgileri aktardığını yine de bilmem gerekirdi. Orijinalini okumuş olsam bile sonradan çoğunluğunu hatırlamayacağım. Bu notlar ana konulara hızlı bir referans niteliğindedir. Sonuç Bu testlerden edindiğim bilgileri kullanarak 539 sayfalık ilk kitabımı 5-6 saatte özetledim!!! İnanılmaz! Özet başına haftalar harcamak yerine ilk 9 kitap özetimi yalnızca 10 günde tamamladım. İntihal Burada yayınlanan metinlerin her biri için sonuçlarını aşağıda görebilirsiniz. CopyLeaks'in Hele ki bunun kâr amaçlı değil eğitim amaçlı olduğunu düşünürsek bu rakamların kabul edilebilir olduğunu düşünüyorum. Kitap Modeller Karakter Farkı Birebir aynı Küçük değişiklikler Başka kelimelerle ifade edilmiş Toplam Eşleşen Doğu Bedeni Batı Zihni Synthia 7Bv2 -75% %3,5 %1,1 %0,8 %5,4 İyileştirme Gücü Vagus Siniri Mistral-7B-Instruct-v0.2; SynthIA-7B-v2.0 -81% %1,2 %0,8 %2,5 %4,5 Ayurveda ve Zihin Mistral-7B-Instruct-v0.2; SynthIA-7B-v2.0 -77% %0,5 %0,3 %1,2 %2 Travmadan Hayatta Kalanların Parçalanmış Benliklerini İyileştirmek Mistral-7B-Instruct-v0.2 -75% %2 Güvenli Bir Üs Mistral-7B-Instruct-v0.2 -84% %0,3 %0,1 %0,3 %0,7 Vücut Skoru Korur Mistral-7B-Instruct-v0.2 -74% %0,1 %0,2 %0,3 %0,5 Tam Çakralar Kitabı Mistral-7B-Instruct-v0.2 -70% %0,3 %0,3 %0,4 %1,1 50 Yıllık Bağlanma Teorisi Mistral-7B-Instruct-v0.2 -70% %1,1 %0,4 %2,1 %3,7 Yetişkinlerde Bağlanma Bozuklukları Mistral-7B-Instruct-v0.2 -62% %1,1 %1,2 %0,7 %3,1 Psikoloji Binbaşı Arkadaşı Mistral-7B-Instruct-v0.2 -62% %1,3 %1,2 %0,4 %2,9 Hayatınızdaki Psikoloji Mistral-7B-Instruct-v0.2 -74% %0,6 %0,4 %0,5 %1,6 Tamamlanan Kitap Özetleri Parantez içinde orijinalin sayfa sayısı verilmiştir. Özet başına haftalar harcamak yerine ilk 9 kitap özetimi yalnızca 10 günde tamamladım. Anodea Judith (436 sayfa) Doğu Bedeni Batı Zihni Stanley Rosenberg (335 Sayfa) Vagus Sinirinin İyileştirici Gücü Dr. David Frawley (181 Sayfa) Ayurveda ve Zihin Janina Fisher (367 Sayfa) Travmadan Hayatta Kalanların Parçalanmış Benliklerini İyileştirmek John Bowlby (133 Sayfa) Güvenli Bir Üs Bessel van der Kolk (454 Sayfa) Skoru Vücut Tutuyor Steven Porges'den (37 sayfa) Yoga ve Polyvagal Teorisi, Polyvagal Safety (999 sayfa) Llewellyn'in Çakralar Cynthia Dale'in Tam Kitabı 1. BÖLÜM ÇAKRA TEMELLERİ VE TEMEL UYGULAMALAR BÖLÜM 2: DERİNLİKTE ÇAKRALAR. TARİHSEL, BİLİMSEL VE KÜLTÜRLERARASI ANLAYIŞLAR (54 sayfa) Elli Yıllık Bağlanma Teorisi: Donald Winnicott'u Anma Dersi (477 Sayfa) Yetişkinlerde Bağlanma Bozuklukları Dana S. Dunn, Jane S. Halonen (308 Sayfa) Psikoloji Bölümünün Arkadaşı (5 Sayfa) Walter Wink Kurtarıcı Şiddet Efsanesi Sarah Gison ve Michael S. Gazzaniga (1072 Sayfa) Hayatınızdaki Psikoloji İzlenecek yol Adımlarımı daha yakından takip etmek istiyorsanız göz atın. GitHub'da komut dosyaları ve örnekler içeren kılavuza Çözüm Artık süreçlerimi iyileştirdiğime ve hızlı formatlarla çalışma konusunda kendime güvendiğime göre, daha fazla test yapacağım. Aslında daha fazla test ve sıralama yaptım (sonrakileri yayınlayacağım), ancak elbette tekrar daha fazla test yapıp öğrenmeye devam edeceğim! Hala yapay zeka ile gerçekleştirdiğiniz görevde en iyi sonuçları elde etmek istiyorsanız kendi deneylerinizi yapıp neyin en iyi sonucu verdiğini görmeniz gerektiğine inanıyorum. Yalnızca popüler model sıralamalarına güvenmeyin, bunları kendi araştırmanıza rehberlik etmek için kullanın. Ek kaynaklar ( ) Uzun Bağlam Geri Çağırma yetenekleri açısından en popüler açık kaynaklı LLM'lerin (Büyük Dil Modelleri) basınç testi yapılmıştır u/ramprasad27 Bölüm 2 / - 💢 Açık Yüksek Lisans Programlarının bağlam penceresinin basınç testi LeonEricsson llmcontext Chatbox Arena Skor Tablosu u/WolframRavenwolf 🐺🐦⬛ Yüksek Lisans Karşılaştırması/Test: Sıralama 10 yeni modelle güncellendi (en iyi 7B'ler)! talimat u/WolframRavenwolf 🐺🐦⬛ LLM İstem Formatı Karşılaştırması/Test: Mixtral 8x7B 17 farklı talimat şablonuyla Vectara Halüsinasyon liderlik tablosu Ayrıca görünür. burada