ChatGPT 成为人工智能行业唯一解决方案的日子已经过去了。分别由 Meta 和 Google 开发的 LLaMA 和 Gemini 等新玩家已经进入该领域。尽管工具和实现不同,但它们有一个共同点:它们都是闭源的(LLaMA 有一些例外)并且受大型科技公司的控制。
本文探讨了人工智能行业的一个新竞争者,它拥有一个性能优于 ChatGPT 3.5 并且可以在本地运行的开源工具。我们还将学习如何未经审查地使用它以及如何使用我们自己的数据来训练它。
Mistral 是一家法国初创公司,由前 Meta 和 DeepMind 研究人员创立。凭借丰富的知识和经验,他们成功筹集了 4.15 亿美元的投资,使 Mistral 的估值达到 20 亿美元。
当 Mistral 团队在 X 上发布新模型 Mistral 8x7B 的 torrent 链接时,他们开始获得关注。根据Apache 2.0许可,该模型不仅比LLaMA 2和ChatGPT 3.5更强大,而且完全开源。
在测试中,Mistral 展现了非凡的性能,在大多数基准测试中超越了 LLaMA 2 70B,在其他基准测试中也匹配或优于 ChatGPT 3.5。
超越数字和表格,让我们开始实践。首先,我们需要一个工具来帮助我们在本地运行它: Ollama 。 MacOS 用户可以在此处下载该文件。对于 Linux 或 WSL 用户,请将以下命令粘贴到终端中:
curl https://ollama.ai/install.sh | sh
然后我们可以在本地运行法学硕士,但我们的目标不仅仅是让人工智能回答随机问题——这就是 ChatGPT 的用途。我们的目标是建立一个未经审查的人工智能,我们可以根据自己的喜好进行调整和微调。
考虑到这一点,我们将使用 dolphin-mistral,这是 Mistral 的自定义版本,可以解除所有限制。要了解有关 dolphin-mistral 如何消除这些限制的更多信息,请查看其创建者的这篇文章。
在终端中运行以下命令以开始在计算机上运行 Ollama:
ollama serve
然后,在另一个终端中运行:
ollama run dolphin-mistral:latest
初始下载可能会比较耗时,因为它需要下载 26GB。下载完成后,Mistral 将等待您的输入。
请记住,运行 dolphin-mistral 需要大量的系统资源,尤其是 RAM。
现在,您可能想知道用您的数据训练 Mistral 的可能性。答案是肯定的。
首先在 Hugging Face 上创建一个帐户(如果您还没有),然后创建一个新空间。
选择 Docker 进行 Autotrain
从这里,您可以选择模型、上传数据并开始训练。由于硬件需求,在家用计算机上训练模型可能具有挑战性。
Hugging Face 等服务提供计算能力(收费),但您也可以考虑使用 Amazon Bedrock 或 Google Vertex AI 来加快这一过程。