paint-brush
Cómo utilizar Ollama: práctica con LLM locales y creación de un chatbotpor@arjunrao1987
11,945 lecturas
11,945 lecturas

Cómo utilizar Ollama: práctica con LLM locales y creación de un chatbot

por Arjun 7m2024/03/14
Read on Terminal Reader

Demasiado Largo; Para Leer

En el espacio de los LLM locales, me encontré por primera vez con LMStudio. Si bien la aplicación en sí es fácil de usar, me gustó la simplicidad y maniobrabilidad que ofrece Ollama. Para conocer más sobre Ollama puedes ingresar aquí. tl;dr: Ollama alberga su propia lista seleccionada de modelos a los que tienes acceso. Puede descargar estos modelos a su máquina local y luego interactuar con esos modelos a través de una línea de comando. Alternativamente, cuando ejecuta el modelo, Ollama también ejecuta un servidor de inferencia alojado en el puerto 11434 (de forma predeterminada) con el que puede interactuar mediante API y otras bibliotecas como Langchain.
featured image - Cómo utilizar Ollama: práctica con LLM locales y creación de un chatbot
Arjun  HackerNoon profile picture
Arjun

Arjun

@arjunrao1987

I build and grow web-scale startups. I have 13+ years of experience driving innovation and delivering results in fast-pa

L O A D I N G
. . . comments & more!

About Author

Arjun  HackerNoon profile picture
I build and grow web-scale startups. I have 13+ years of experience driving innovation and delivering results in fast-pa

ETIQUETAS

Languages

ESTE ARTÍCULO FUE PRESENTADO EN...

Read on Terminal Reader
Read this story in a terminal
 Terminal
Read this story w/o Javascript
Read this story w/o Javascript
 Lite