604 leituras

Mixtral — um modelo de linguagem multilíngue treinado com um tamanho de contexto de 32k tokens

by
2024/10/18
featured image - Mixtral — um modelo de linguagem multilíngue treinado com um tamanho de contexto de 32k tokens