604 lecturas

Mixtral: un modelo de lenguaje multilingüe entrenado con un tamaño de contexto de 32 000 tokens

by
2024/10/18
featured image - Mixtral: un modelo de lenguaje multilingüe entrenado con un tamaño de contexto de 32 000 tokens