如今,大型语言模型已经变得极其强大;他们可以帮助我们解答一些最棘手的问题。但它们也可能让我们误入歧途:它们容易产生幻觉,这意味着它们给出的答案看似正确,但实际上并非如此。
在这里,我们将介绍三种阻止法学硕士产生幻觉的方法:检索增强生成(RAG)、推理和迭代查询。
和
一旦检索到相关文档,法学硕士就会使用查询以及这些文档来总结用户的响应。这样,模型不必仅仅依赖其内部知识,而是可以在正确的时间访问您提供的任何数据。从某种意义上说,它为法学硕士提供了其自身所不具备的“长期记忆”。该模型可以通过包含矢量数据库中存储的专有数据来提供更准确且适合上下文的响应。
另一种 RAG 方法结合了事实检查。法学硕士会被提示提供答案,然后根据矢量数据库中的数据进行事实检查和审查。从矢量数据库中生成查询的答案,然后法学硕士反过来使用该答案作为提示来辨别它是否与事实相关。
法学硕士在很多事情上都非常擅长。由于“变形金刚”的进步,它们可以预测句子中的下一个单词,“变形金刚”通过对输入数据的不同部分给予不同程度的关注,改变了机器理解人类语言的方式。法学硕士还擅长将大量信息归纳为非常简洁的答案,并从大量文本中查找和提取您正在寻找的内容。令人惊讶的是,LLMS 还可以规划——他们可以真正收集数据并为您规划旅行。
也许更令人惊讶的是,法学硕士可以以几乎像人类一样的方式使用推理来得出答案。因为人们可以推理,所以他们不需要大量数据来做出预测或决策。推理还可以帮助法学硕士避免产生幻觉。这方面的一个例子是“
该方法有助于模型将多步骤问题分解为中间步骤。通过思想链提示,法学硕士可以解决标准提示方法无法解决的复杂推理问题(要深入了解,请查看博客文章
如果你给法学硕士提出一个复杂的数学问题,它可能会出错。但如果你向法学硕士提供问题以及解决问题的方法,它就能给出准确的答案,并分享答案背后的原因。矢量数据库是此方法的关键部分,因为它提供了与此类似的问题的示例,并用示例填充提示。
更好的是,一旦您有了问题和答案,您可以将其存储回矢量数据库中,以进一步提高生成式 AI 应用程序的准确性和实用性。
您还可以了解许多其他推理进步,包括
帮助减少 LLM 幻觉的第三种方法是交互式查询。在这种情况下,人工智能代理会调解在法学硕士和向量数据库之间来回移动的呼叫。这可以迭代发生多次,以获得最佳答案。这种前瞻性主动检索生成的一个例子,也称为 FLARE。
您提出一个问题,查询您的知识库以获取更多类似的问题。您会收到一系列类似的问题。然后,您用所有问题查询向量数据库,总结答案,并检查答案是否看起来不错且合理。如果没有出现,请重复这些步骤,直到出现为止。
其他高级交互式查询方法包括
有许多工具可以帮助您进行代理编排。
另一个这样的工具是
该公司从各种结构化和非结构化数据中提取数据,为诸如“目前有多少居民正在享受医疗保险?”等提示提供人工智能生成的答案。 SkyPoint 首席执行官蒂森·马修最近告诉我。他说,这有助于护理人员根据准确的数据快速做出明智的决策。
然而,马修说,达到这一点是一个过程。他的团队首先采用了标准的法学硕士课程,并使用 SkyPoint 数据对其进行了微调。 “它带来了灾难性的结果——甚至是随机的单词,”他说。 SkyPoint 可以处理理解和创建提示的问题,但它需要人工智能技术堆栈来大规模生成准确的答案。
SkyPoint 最终构建了一个系统,该系统从运营商和提供商处获取结构化数据,例如电子医疗记录和工资数据。这存储在列式数据库中; RAG用于查询它。非结构化数据,例如政策、程序以及国家法规,存储在矢量数据库中:
蒂森举了一个例子:如果居民变得施虐怎么办? Astra DB 提供了一个根据国家法规和用户上下文以及各种不同文档和信息组合而成的答案
“这些是必须正确的具体答案,”蒂森说。 “组织依靠这些信息为其社区和业务做出明智的决策。”
SkyPoint AI 说明了降低 AI 幻觉风险的重要性;如果没有可用于确保准确答案的方法和工具,后果可能会很严重。
借助 RAG、推理和迭代查询方法(例如 FLARE),生成式人工智能(尤其是在专有数据的推动下)正在成为一种日益强大的工具,帮助企业高效、有效地服务客户。
作者:Alan Ho,DataStax
详细了解 DataStax 如何帮助您
也发布在这里。