paint-brush
语法无错误且可推广的法学硕士 (LLM) 工具使用:相关工作经过@textmodels

语法无错误且可推广的法学硕士 (LLM) 工具使用:相关工作

太長; 讀書

研究人员提出了 TOOLDEC,一种用于 LLM 的有限状态机引导解码,可减少错误并改善工具使用。
featured image - 语法无错误且可推广的法学硕士 (LLM) 工具使用:相关工作
Writings, Papers and Blogs on Text Models HackerNoon profile picture
0-item

作者:

(1)加州大学圣巴巴拉分校张克迅及同等贡献;

(2)Northwood High School的Hongqiao Chen,同等贡献;

(3) 李蕾,卡内基梅隆大学;

(4)威廉杨·王(William Yang Wang),加州大学圣巴巴拉分校

链接表

2.相关工作

微调语言模型以使用工具。语言模型可以进行微调,以使用包含交错文本和工具使用的数据的工具。早期的研究通过微调使语言模型使用单一工具,如检索模块(Borgeaud 等人,2022 年;Guu 等人,2020 年)或搜索引擎(Nakano 等人,2021 年)。使用多种工具的工具增强语言模型的最新进展(Schick 等人,2023 年;Parisi 等人,2022 年)也对语言模型进行了微调,以使用包括 QA 模型、翻译模型、计算器和搜索引擎在内的工具。ToolkenGPT(Hao 等人,2023 年)建议使用几个特殊的标记来表示工具,并且只调整标记的嵌入,以便新工具的采用更加高效。然而,针对工具使用的微调方法仍然需要新数据和额外的微调,以使模型适应新工具。我们在表 1 中列出了有限状态解码与前两个范式之间的差异。


上下文学习以使用工具。语言模型可以从上下文示例中学习(Brown 等人,2020 年)并遵循指令(Ouyang 等人,2022 年)。这使得可以简单地将工具的描述放在提示中并要求语言模型使用它们。最近的研究利用这种可能性使用神经模型(Shen 等人,2023 年)、RESTful API(Qin 等人,2023 年;Song 等人,2023 年)、程序解释器(Chen 等人,2022 年;Gao 等人,2023 年)和许多其他工具来解决问题。上下文学习不需要额外的模型调整来使用新工具。但是,新工具的描述和文档仍然需要在提示中,这增加了计算成本并限制了模型实际推理任务的上下文预算。


约束解码和有限状态机。以前的约束解码方法主要关注词汇约束(Anderson 等人,2017 年)。它们使用有限状态机(Anderson 等人,2017 年)、将相似的候选者分组(Hokamp & Liu,2017 年)和更好的搜索算法(Miao 等人,2019 年;Lu 等人,2021 年;2022 年)减少了词汇约束解码的大量搜索空间。然而,词汇约束不足以表达工具调用。虽然有限状态机必须加权和概率化才能处理自然语言中的软约束(Eisner,2002 年;Rastogi 等人,2016 年),但语法工具调用的约束是硬约束,对于 FSM 来说要容易得多。因此,我们提出了 TOOLDEC 来满足有效工具调用的句法约束。