paint-brush
So verwenden Sie Ollama: Praktische Arbeit mit lokalen LLMs und Aufbau eines Chatbotsvon@arjunrao1987
11,945 Lesungen
11,945 Lesungen

So verwenden Sie Ollama: Praktische Arbeit mit lokalen LLMs und Aufbau eines Chatbots

von Arjun 7m2024/03/14
Read on Terminal Reader

Zu lang; Lesen

Im Bereich lokaler LLMs bin ich zum ersten Mal auf LMStudio gestoßen. Obwohl die App selbst einfach zu bedienen ist, gefiel mir die Einfachheit und Manövrierfähigkeit, die Ollama bietet. Um mehr über Ollama zu erfahren, klicken Sie hier. tl;dr: Ollama hostet eine eigene kuratierte Liste von Modellen, auf die Sie Zugriff haben. Sie können diese Modelle auf Ihren lokalen Computer herunterladen und dann über eine Befehlszeilenaufforderung mit diesen Modellen interagieren. Wenn Sie das Modell ausführen, führt Ollama alternativ auch einen Inferenzserver aus, der standardmäßig auf Port 11434 gehostet wird und mit dem Sie über APIs und andere Bibliotheken wie Langchain interagieren können.
featured image - So verwenden Sie Ollama: Praktische Arbeit mit lokalen LLMs und Aufbau eines Chatbots
Arjun  HackerNoon profile picture
Arjun

Arjun

@arjunrao1987

I build and grow web-scale startups. I have 13+ years of experience driving innovation and delivering results in fast-pa

L O A D I N G
. . . comments & more!

About Author

Arjun  HackerNoon profile picture
I build and grow web-scale startups. I have 13+ years of experience driving innovation and delivering results in fast-pa

Hängeetiketten

Languages

DIESER ARTIKEL WURDE VORGESTELLT IN...

Read on Terminal Reader
Read this story in a terminal
 Terminal
Read this story w/o Javascript
Read this story w/o Javascript
 Lite