paint-brush
Comment utiliser Ollama : pratique avec les LLM locaux et création d'un chatbotpar@arjunrao1987
11,945 lectures
11,945 lectures

Comment utiliser Ollama : pratique avec les LLM locaux et création d'un chatbot

par Arjun 7m2024/03/14
Read on Terminal Reader

Trop long; Pour lire

Dans l'espace des LLM locaux, je suis d'abord tombé sur LMStudio. Bien que l'application elle-même soit facile à utiliser, j'ai aimé la simplicité et la maniabilité offertes par Ollama. Pour en savoir plus sur Ollama, vous pouvez aller ici. tl;dr : Ollama héberge sa propre liste de modèles auxquels vous avez accès. Vous pouvez télécharger ces modèles sur votre ordinateur local, puis interagir avec ces modèles via une invite de ligne de commande. Alternativement, lorsque vous exécutez le modèle, Ollama exécute également un serveur d'inférence hébergé sur le port 11434 (par défaut) avec lequel vous pouvez interagir via des API et d'autres bibliothèques comme Langchain.
featured image - Comment utiliser Ollama : pratique avec les LLM locaux et création d'un chatbot
Arjun  HackerNoon profile picture
Arjun

Arjun

@arjunrao1987

I build and grow web-scale startups. I have 13+ years of experience driving innovation and delivering results in fast-pa

L O A D I N G
. . . comments & more!

About Author

Arjun  HackerNoon profile picture
I build and grow web-scale startups. I have 13+ years of experience driving innovation and delivering results in fast-pa

ÉTIQUETTES

Languages

CET ARTICLE A ÉTÉ PARU DANS...

Read on Terminal Reader
Read this story in a terminal
 Terminal
Read this story w/o Javascript
Read this story w/o Javascript
 Lite