paint-brush
Comment utiliser un modèle d'IA non censuré et l'entraîner avec vos donnéespar@jeferson
30,563 lectures
30,563 lectures

Comment utiliser un modèle d'IA non censuré et l'entraîner avec vos données

par Jeferson Borba3m2023/12/25
Read on Terminal Reader

Trop long; Pour lire

Mistral est une startup française, créée par d'anciens chercheurs de Meta et DeepMind. Sous licence Apache 2.0, ce modèle se revendique plus puissant que LLaMA 2 et ChatGPT 3.5, tout cela en étant totalement open-source. Nous allons apprendre à l'utiliser sans censure et découvrir comment l'entraîner avec nos données.
featured image - Comment utiliser un modèle d'IA non censuré et l'entraîner avec vos données
Jeferson Borba HackerNoon profile picture
0-item

L’époque où ChatGPT était la solution unique dans le secteur de l’IA est révolue depuis longtemps. De nouveaux acteurs comme LLaMA et Gemini, développés respectivement par Meta et Google, sont entrés sur le terrain. Malgré les différents outils et implémentations, ils partagent un point commun : ils sont à source fermée (à quelques exceptions près pour LLaMA) et sous le contrôle de grandes entreprises technologiques.


Cet article explore un nouveau concurrent dans l'industrie de l'IA, doté d'un outil open source qui surpasse ChatGPT 3.5 et peut être exécuté localement. Nous apprendrons également comment l'utiliser sans censure et comment l'entraîner avec nos propres données.

Présentation de Mistral 8x7B

Mistral est une startup française, créée par d'anciens chercheurs de Meta et DeepMind. Tirant parti de leurs connaissances et de leur expérience approfondies, ils ont réussi à lever 415 millions de dollars d'investissements, portant la valorisation de Mistral à 2 milliards de dollars.

Lien magnétique Mistral 8x7B, publié le 8 décembre

L'équipe de Mistral a commencé à gagner du terrain lorsqu'elle a publié un lien torrent sur X vers son nouveau modèle, Mistral 8x7B. Selon la licence Apache 2.0, ce modèle est non seulement plus puissant que LLaMA 2 et ChatGPT 3.5 mais aussi totalement open-source.

Puissance et capacités du mistral

  • Gère un contexte de 32 000 jetons.


  • Fonctionne en anglais, allemand, espagnol, italien et français.


  • Présente d’excellentes performances lors de la génération de code.


  • Peut être transformé en modèle suivant les instructions.


Lors des tests, Mistral a démontré une puissance remarquable, surpassant LLaMA 2 70B dans la majorité des benchmarks et égalant ou surpassant ChatGPT 3.5 dans d'autres benchmarks.

Comparaison entre Mistral, LLaMA et GPT (de https://mistral.ai/news/mixtral-of-experts)

Faire fonctionner Mistral localement

Au-delà des figures et des tableaux, commençons par être pratiques. Tout d’abord, nous aurons besoin d’un outil pour nous aider à l’exécuter localement : Ollama . Les utilisateurs de MacOS peuvent télécharger le fichier ici . Pour les utilisateurs Linux ou WSL, collez les commandes suivantes dans votre terminal :

 curl https://ollama.ai/install.sh | sh


Nous pouvons ensuite exécuter des LLM localement, mais nous ne visons pas simplement qu'une IA réponde à des questions aléatoires - c'est à cela que sert ChatGPT. Nous visons une IA non censurée que nous pouvons modifier et affiner selon nos préférences.


Compte tenu de cela, nous utiliserons Dolphin-Mistral, une version personnalisée de Mistral qui lève toutes les contraintes. Pour en savoir plus sur la manière dont Dolphin-Mistral a supprimé ces contraintes, consultez cet article de son créateur.


Exécutez la commande suivante dans votre terminal pour démarrer Ollama sur votre ordinateur :

 ollama serve


Ensuite, dans un autre terminal, exécutez :

 ollama run dolphin-mistral:latest


Le téléchargement initial peut prendre du temps car il nécessite le téléchargement de 26 Go. Une fois le téléchargement terminé, mistral attendra votre contribution.

Invite de dauphin-mistral

N'oubliez pas que l'exécution de Dolphin-Mistral nécessite des ressources système importantes, notamment de la RAM.

Utilisation des ressources par dauphin-mistral

Entraîner votre propre modèle

Maintenant, vous vous interrogez peut-être sur les possibilités d’entraînement du mistral avec vos données. La réponse est un oui retentissant.


Commencez par créer un compte sur Hugging Face (si ce n'est pas déjà fait), puis créez un nouvel espace.

Création d'espace sur Hugging Face

Choisissez Docker pour Autotrain

Sélection du SDK Space

À partir de là, vous pouvez sélectionner votre modèle, télécharger vos données et commencer la formation. Former un modèle sur un ordinateur personnel peut être difficile en raison des exigences matérielles.


Des services comme Hugging Face offrent une puissance de calcul (payante), mais vous pouvez également envisager Amazon Bedrock ou Google Vertex AI pour accélérer le processus.