L’époque où ChatGPT était la solution unique dans le secteur de l’IA est révolue depuis longtemps. De nouveaux acteurs comme LLaMA et Gemini, développés respectivement par Meta et Google, sont entrés sur le terrain. Malgré les différents outils et implémentations, ils partagent un point commun : ils sont à source fermée (à quelques exceptions près pour LLaMA) et sous le contrôle de grandes entreprises technologiques.
Cet article explore un nouveau concurrent dans l'industrie de l'IA, doté d'un outil open source qui surpasse ChatGPT 3.5 et peut être exécuté localement. Nous apprendrons également comment l'utiliser sans censure et comment l'entraîner avec nos propres données.
Mistral est une startup française, créée par d'anciens chercheurs de Meta et DeepMind. Tirant parti de leurs connaissances et de leur expérience approfondies, ils ont réussi à lever 415 millions de dollars d'investissements, portant la valorisation de Mistral à 2 milliards de dollars.
L'équipe de Mistral a commencé à gagner du terrain lorsqu'elle a publié un lien torrent sur X vers son nouveau modèle, Mistral 8x7B. Selon la licence Apache 2.0, ce modèle est non seulement plus puissant que LLaMA 2 et ChatGPT 3.5 mais aussi totalement open-source.
Lors des tests, Mistral a démontré une puissance remarquable, surpassant LLaMA 2 70B dans la majorité des benchmarks et égalant ou surpassant ChatGPT 3.5 dans d'autres benchmarks.
Au-delà des figures et des tableaux, commençons par être pratiques. Tout d’abord, nous aurons besoin d’un outil pour nous aider à l’exécuter localement : Ollama . Les utilisateurs de MacOS peuvent télécharger le fichier ici . Pour les utilisateurs Linux ou WSL, collez les commandes suivantes dans votre terminal :
curl https://ollama.ai/install.sh | sh
Nous pouvons ensuite exécuter des LLM localement, mais nous ne visons pas simplement qu'une IA réponde à des questions aléatoires - c'est à cela que sert ChatGPT. Nous visons une IA non censurée que nous pouvons modifier et affiner selon nos préférences.
Compte tenu de cela, nous utiliserons Dolphin-Mistral, une version personnalisée de Mistral qui lève toutes les contraintes. Pour en savoir plus sur la manière dont Dolphin-Mistral a supprimé ces contraintes, consultez cet article de son créateur.
Exécutez la commande suivante dans votre terminal pour démarrer Ollama sur votre ordinateur :
ollama serve
Ensuite, dans un autre terminal, exécutez :
ollama run dolphin-mistral:latest
Le téléchargement initial peut prendre du temps car il nécessite le téléchargement de 26 Go. Une fois le téléchargement terminé, mistral attendra votre contribution.
N'oubliez pas que l'exécution de Dolphin-Mistral nécessite des ressources système importantes, notamment de la RAM.
Maintenant, vous vous interrogez peut-être sur les possibilités d’entraînement du mistral avec vos données. La réponse est un oui retentissant.
Commencez par créer un compte sur Hugging Face (si ce n'est pas déjà fait), puis créez un nouvel espace.
Choisissez Docker pour Autotrain
À partir de là, vous pouvez sélectionner votre modèle, télécharger vos données et commencer la formation. Former un modèle sur un ordinateur personnel peut être difficile en raison des exigences matérielles.
Des services comme Hugging Face offrent une puissance de calcul (payante), mais vous pouvez également envisager Amazon Bedrock ou Google Vertex AI pour accélérer le processus.