paint-brush
Mixtral—Mô hình ngôn ngữ đa ngôn ngữ được đào tạo với kích thước ngữ cảnh là 32k mã thông báotừ tác giả@textmodels
Bài viết mới

Mixtral—Mô hình ngôn ngữ đa ngôn ngữ được đào tạo với kích thước ngữ cảnh là 32k mã thông báo

từ tác giả Writings, Papers and Blogs on Text Models3m2024/10/18
Read on Terminal Reader

dài quá đọc không nổi

Mixtral là một hỗn hợp thưa thớt của mô hình chuyên gia (SMoE) với trọng số mở, được cấp phép theo Apache 2.0. Mixtral vượt trội hơn Llama 2 70B và GPT-3.5 trên hầu hết các điểm chuẩn. Đây là mô hình chỉ có bộ giải mã, trong đó khối truyền tiếp chọn từ 8 nhóm tham số riêng biệt.
featured image - Mixtral—Mô hình ngôn ngữ đa ngôn ngữ được đào tạo với kích thước ngữ cảnh là 32k mã thông báo
Writings, Papers and Blogs on Text Models HackerNoon profile picture
0-item

Tác giả:

(1) Albert Q. Jiang;

(2) Alexandre Sablayrolles;

(3) Antoine Roux;

(4) Arthur Mensch;

(5) Blanche Savary;

(6) Chris Bamford;

(7) Devendra Singh Chaplot;

(8) Diego de las Casas;

(9) Emma Bou Hanna;

(10) Florian Bressand;

(11) Gianna Lengyel;

(12) Guillaume Bour;

(13) Guillaume Lample;

(14) Lélio Renard Lavaud;

(15) Lucile Saulnier;

(16) Marie-Anne Lachaux;

(17) Pierre Stock;

(18) Sandeep Subramanian;

(19) Sophia Dương;

(20) Szymon Antoniak;

(21) Teven Le Scao;

(22) Théophile Gervet;

(23) Thibaut Lavril;

(24) Thomas Vương;

(25) Timothée Lacroix;

(26) William El Sayed.

Bảng liên kết

Tóm tắt và 1. Giới thiệu

2 Chi tiết kiến trúc và 2.1 Sự pha trộn thưa thớt của các chuyên gia

3 Kết quả

3.1 Điểm chuẩn đa ngôn ngữ, 3.2 Hiệu suất tầm xa và 3.3 Điểm chuẩn thiên vị

4 Hướng dẫn tinh chỉnh

5 Phân tích định tuyến

6 Kết luận, Lời cảm ơn và Tài liệu tham khảo

Tóm tắt

Chúng tôi giới thiệu Mixtral 8x7B, một mô hình ngôn ngữ Sparse Mixture of Experts (SMoE). Mixtral có cùng kiến trúc với Mistral 7B, với điểm khác biệt là mỗi lớp bao gồm 8 khối truyền thẳng (tức là các chuyên gia). Đối với mỗi mã thông báo, tại mỗi lớp, một mạng định tuyến sẽ chọn hai chuyên gia để xử lý trạng thái hiện tại và kết hợp đầu ra của họ. Mặc dù mỗi mã thông báo chỉ nhìn thấy hai chuyên gia, nhưng các chuyên gia được chọn có thể khác nhau tại mỗi bước thời gian. Do đó, mỗi mã thông báo có quyền truy cập vào 47B tham số, nhưng chỉ sử dụng 13B tham số hoạt động trong quá trình suy luận. Mixtral đã được đào tạo với kích thước ngữ cảnh là 32k mã thông báo và nó vượt trội hoặc phù hợp với Llama 2 70B và GPT-3.5 trên tất cả các điểm chuẩn được đánh giá. Đặc biệt, Mixtral vượt trội hơn Llama 2 70B rất nhiều về toán học, tạo mã và điểm chuẩn đa ngôn ngữ. Chúng tôi cũng cung cấp một mô hình được tinh chỉnh để tuân theo hướng dẫn, Mixtral 8x7B – Instruct, vượt trội hơn GPT-3.5 Turbo, Claude-2.1, Gemini Pro và Llama 2 70B – mô hình trò chuyện trên chuẩn mực của con người. Cả mô hình cơ sở và mô hình hướng dẫn đều được phát hành theo giấy phép Apache 2.0.


: https://github.com/mistralai/mistral-src


Trang web : https://mistral.ai/news/mixtral-of-experts/

1 Giới thiệu

Trong bài báo này, chúng tôi trình bày Mixtral 8x7B, một mô hình hỗn hợp thưa thớt của các chuyên gia (SMoE) với trọng số mở, được cấp phép theo Apache 2.0. Mixtral vượt trội hơn Llama 2 70B và GPT-3.5 trên hầu hết các điểm chuẩn. Vì chỉ sử dụng một tập hợp con các tham số của mình cho mọi mã thông báo, Mixtral cho phép tốc độ suy luận nhanh hơn ở kích thước lô thấp và thông lượng cao hơn ở kích thước lô lớn.


Mixtral là mạng hỗn hợp thưa thớt các chuyên gia. Đây là mô hình chỉ có bộ giải mã, trong đó khối truyền thẳng chọn từ một tập hợp gồm 8 nhóm tham số riêng biệt. Ở mỗi lớp, đối với mỗi mã thông báo, mạng bộ định tuyến sẽ chọn hai trong số các nhóm này (các "chuyên gia") để xử lý mã thông báo và kết hợp đầu ra của chúng theo cách cộng dồn. Kỹ thuật này làm tăng số lượng tham số của một mô hình trong khi vẫn kiểm soát được chi phí và độ trễ, vì mô hình chỉ sử dụng một phần nhỏ trong tổng số các tham số trên mỗi mã thông báo.


Mixtral được đào tạo trước với dữ liệu đa ngôn ngữ sử dụng kích thước ngữ cảnh là 32k mã thông báo. Nó phù hợp hoặc vượt quá hiệu suất của Llama 2 70B và GPT-3.5, qua một số điểm chuẩn. Cụ thể,


Hình 1: Hỗn hợp của lớp chuyên gia. Mỗi vectơ đầu vào được gán cho 2 trong số 8 chuyên gia bởi một bộ định tuyến. Đầu ra của lớp là tổng trọng số của các đầu ra của hai chuyên gia được chọn. Trong Mixtral, một chuyên gia là một khối truyền thẳng chuẩn như trong kiến trúc máy biến áp vani.


Mixtral chứng minh khả năng vượt trội về toán học, tạo mã và các tác vụ đòi hỏi hiểu biết đa ngôn ngữ, vượt trội hơn đáng kể so với Llama 2 70B trong các lĩnh vực này. Các thí nghiệm cho thấy Mixtral có thể truy xuất thành công thông tin từ cửa sổ ngữ cảnh gồm 32k mã thông báo, bất kể độ dài chuỗi và vị trí của thông tin trong chuỗi.


Chúng tôi cũng trình bày Mixtral 8x7B – Instruct, một mô hình trò chuyện được tinh chỉnh để tuân theo các hướng dẫn bằng cách sử dụng tinh chỉnh có giám sát và Tối ưu hóa sở thích trực tiếp [25]. Hiệu suất của nó vượt trội đáng kể so với GPT-3.5 Turbo, Claude-2.1, Gemini Pro và Llama 2 70B – mô hình trò chuyện trên các chuẩn mực đánh giá của con người. Mixtral – Instruct cũng chứng minh được độ lệch giảm và hồ sơ tình cảm cân bằng hơn trong các chuẩn mực như BBQ và BOLD.


Chúng tôi phát hành cả Mixtral 8x7B và Mixtral 8x7B – Instruct theo giấy phép Apache 2.01, miễn phí cho mục đích sử dụng học thuật và thương mại, đảm bảo khả năng truy cập rộng rãi và tiềm năng cho nhiều ứng dụng khác nhau. Để cộng đồng có thể chạy Mixtral với một ngăn xếp mã nguồn mở hoàn toàn, chúng tôi đã gửi các thay đổi cho dự án vLLM, tích hợp các hạt nhân CUDA Megablocks để suy luận hiệu quả. Skypilot cũng cho phép triển khai các điểm cuối vLLM trên bất kỳ phiên bản nào trên đám mây.


Bài báo này có sẵn trên arxiv theo giấy phép CC 4.0.