paint-brush
Como usar o Ollama: prática com LLMs locais e construção de um chatbotpor@arjunrao1987
11,945 leituras
11,945 leituras

Como usar o Ollama: prática com LLMs locais e construção de um chatbot

por Arjun 7m2024/03/14
Read on Terminal Reader

Muito longo; Para ler

No espaço dos LLMs locais, encontrei pela primeira vez o LMStudio. Embora o aplicativo em si seja fácil de usar, gostei da simplicidade e manobrabilidade que Ollama oferece. Para saber mais sobre Ollama você pode acessar aqui. dr: Ollama hospeda sua própria lista selecionada de modelos aos quais você tem acesso. Você pode baixar esses modelos para sua máquina local e interagir com eles por meio de um prompt de linha de comando. Alternativamente, quando você executa o modelo, Ollama também executa um servidor de inferência hospedado na porta 11434 (por padrão) com o qual você pode interagir por meio de APIs e outras bibliotecas como Langchain.
featured image - Como usar o Ollama: prática com LLMs locais e construção de um chatbot
Arjun  HackerNoon profile picture
Arjun

Arjun

@arjunrao1987

I build and grow web-scale startups. I have 13+ years of experience driving innovation and delivering results in fast-pa

L O A D I N G
. . . comments & more!

About Author

Arjun  HackerNoon profile picture
I build and grow web-scale startups. I have 13+ years of experience driving innovation and delivering results in fast-pa

Rótulos

Languages

ESTE ARTIGO FOI APRESENTADO EM...

Read on Terminal Reader
Read this story in a terminal
 Terminal
Read this story w/o Javascript
Read this story w/o Javascript
 Lite