如何使用 Ollama:与当地法学硕士一起实践并构建聊天机器人
太長; 讀書
在本地法学硕士领域,我首先遇到了 LMStudio。虽然应用程序本身易于使用,但我喜欢 Ollama 提供的简单性和可操作性。要了解有关 Ollama 的更多信息,您可以访问此处。
tl;dr:Ollama 拥有自己精选的模型列表,您可以访问。
您可以将这些模型下载到本地计算机,然后通过命令行提示符与这些模型进行交互。或者,当您运行模型时,Ollama 还会运行托管在端口 11434(默认情况下)的推理服务器,您可以通过 API 和其他库(例如 Langchain)与其进行交互。