paint-brush
Mixtral - 32k 토큰의 컨텍스트 크기로 훈련된 다국어 언어 모델~에 의해@textmodels
새로운 역사

Mixtral - 32k 토큰의 컨텍스트 크기로 훈련된 다국어 언어 모델

너무 오래; 읽다

Mixtral은 Apache 2.0 라이선스를 받은 개방형 가중치를 가진 스파스 혼합 전문가 모델(SMoE)입니다. Mixtral은 대부분 벤치마크에서 Llama 2 70B와 GPT-3.5보다 성능이 뛰어납니다. 피드포워드 블록이 8개의 개별 매개변수 그룹에서 선택하는 디코더 전용 모델입니다.
featured image - Mixtral - 32k 토큰의 컨텍스트 크기로 훈련된 다국어 언어 모델
Writings, Papers and Blogs on Text Models HackerNoon profile picture
0-item

저자:

(1) 앨버트 Q. 지앙;

(2) 알렉상드르 사블레롤,

(3) 앙투안 루,

(4) 아서 멘쉬;

(5) 블랑슈 사바리;

(6) 크리스 뱀포드;

(7) 데벤드라 싱 차플롯;

(8) 디에고 데 라스 카사스;

(9) 에마 보우 하나;

(10) 플로리안 브레산드;

(11) 지아나 렌기엘;

(12) 기욤 부르,

(13) 기욤 램플;

(14) 레리오 르나르 라보;

(15) 루실 솔니에;

(16) 마리앤 라쇼,

(17) 피에르 스톡,

(18) 산딥 수브라마니안,

(19) 소피아 양;

(20) 시몬 안토니악;

(21) 테벤 르 스카오;

(22) 테오필 제르베,

(23) 티보 라브릴;

(24) 토마스 왕;

(25) 티모시 라크루아,

(26) 윌리엄 엘 사예드.

링크 표

초록 및 1. 서론

2 건축 세부 사항 및 2.1 전문가의 희소한 혼합

3개의 결과

3.1 다국어 벤치마크, 3.2 장거리 성능 및 3.3 바이어스 벤치마크

4 지시 미세 조정

5 라우팅 분석

6 결론, 감사의 말 및 참고문헌

추상적인

우리는 Sparse Mixture of Experts(SMoE) 언어 모델인 Mixtral 8x7B를 소개합니다. Mixtral은 Mistral 7B와 동일한 아키텍처를 가지고 있지만, 각 계층이 8개의 피드포워드 블록(즉, 전문가)으로 구성되어 있다는 점이 다릅니다. 각 토큰에 대해 각 계층에서 라우터 네트워크는 현재 상태를 처리하고 출력을 결합하기 위해 두 명의 전문가를 선택합니다. 각 토큰은 두 명의 전문가만 보지만, 선택된 전문가는 각 타임스텝에서 다를 수 있습니다. 결과적으로 각 토큰은 47B 매개변수에 액세스할 수 있지만 추론 중에 13B개의 활성 매개변수만 사용합니다. Mixtral은 32k 토큰의 컨텍스트 크기로 학습되었으며 모든 평가된 벤치마크에서 Llama 2 70B와 GPT-3.5보다 성능이 뛰어나거나 동일합니다. 특히 Mixtral은 수학, 코드 생성 및 다국어 벤치마크에서 Llama 2 70B보다 훨씬 성능이 뛰어납니다. 또한 우리는 지침을 따르도록 미세 조정된 모델인 Mixtral 8x7B – Instruct를 제공하는데, 이는 인간 벤치마크에서 GPT-3.5 Turbo, Claude-2.1, Gemini Pro, Llama 2 70B – chat 모델을 능가합니다. 기본 모델과 instruct 모델은 모두 Apache 2.0 라이선스에 따라 출시됩니다.


코드 : https://github.com/mistralai/mistral-src


웹페이지 : https://mistral.ai/news/mixtral-of-experts/

1 서론

이 논문에서는 Apache 2.0 라이선스를 받은 개방형 가중치를 가진 스파스 혼합 전문가 모델(SMoE)인 Mixtral 8x7B를 제시합니다. Mixtral은 대부분 벤치마크에서 Llama 2 70B와 GPT-3.5보다 성능이 뛰어납니다. 모든 토큰에 대해 매개변수의 하위 집합만 사용하므로 Mixtral은 낮은 배치 크기에서 더 빠른 추론 속도와 큰 배치 크기에서 더 높은 처리량을 제공합니다.


Mixtral은 스파스 혼합 전문가 네트워크입니다. 피드포워드 블록이 8개의 개별 매개변수 그룹에서 선택하는 디코더 전용 모델입니다. 모든 계층에서 모든 토큰에 대해 라우터 네트워크는 토큰을 처리하고 출력을 가산적으로 결합하기 위해 이러한 그룹 중 두 개("전문가")를 선택합니다. 이 기술은 모델이 토큰당 전체 매개변수 세트의 일부만 사용하므로 비용과 지연 시간을 제어하는 동시에 모델의 매개변수 수를 늘립니다.


Mixtral은 32k 토큰의 컨텍스트 크기를 사용하여 다국어 데이터로 사전 학습되었습니다. 여러 벤치마크에서 Llama 2 70B 및 GPT-3.5의 성능과 일치하거나 능가합니다. 특히,


그림 1: 전문가 혼합 계층. 각 입력 벡터는 라우터에 의해 8명의 전문가 중 2명에게 할당됩니다. 계층의 출력은 선택된 두 전문가의 출력의 가중 합입니다. Mixtral에서 전문가는 바닐라 변압기 아키텍처와 같은 표준 피드포워드 블록입니다.


Mixtral은 수학, 코드 생성 및 다국어 이해가 필요한 작업에서 뛰어난 역량을 보여주며, 이러한 도메인에서 Llama 2 70B보다 상당히 우수한 성과를 보였습니다. 실험 결과 Mixtral은 시퀀스 길이와 시퀀스 내 정보 위치에 관계없이 32k 토큰의 컨텍스트 창에서 정보를 성공적으로 검색할 수 있는 것으로 나타났습니다.


또한, 우리는 감독 미세 조정 및 직접 선호도 최적화[25]를 사용하여 지침을 따르도록 미세 조정된 채팅 모델인 Mixtral 8x7B - Instruct를 제시합니다. 그 성능은 인간 평가 벤치마크에서 GPT-3.5 Turbo, Claude-2.1, Gemini Pro 및 Llama 2 70B - 채팅 모델을 현저히 능가합니다. Mixtral - Instruct는 또한 BBQ 및 BOLD와 같은 벤치마크에서 편향이 감소하고 감정 프로필이 더 균형 잡혔음을 보여줍니다.


우리는 Mixtral 8x7B와 Mixtral 8x7B – Instruct를 Apache 2.0 라이선스1에 따라 출시하여 학술 및 상업적 사용에 무료로 제공하여 광범위한 접근성과 다양한 애플리케이션의 잠재력을 보장합니다. 커뮤니티가 Mixtral을 완전히 오픈 소스 스택으로 실행할 수 있도록 하기 위해 효율적인 추론을 위해 Megablocks CUDA 커널을 통합하는 vLLM 프로젝트에 변경 사항을 제출했습니다. Skypilot은 또한 클라우드의 모든 인스턴스에 vLLM 엔드포인트를 배포할 수 있도록 합니다.


이 논문은 CC 4.0 라이선스에 따라 arxiv에서 볼 수 있습니다 .