paint-brush
LLM における構文エラーのない一般化可能なツールの使用: 結論と参考文献@textmodels

LLM における構文エラーのない一般化可能なツールの使用: 結論と参考文献

長すぎる; 読むには

研究者らは、エラーを減らし、ツールの使用を改善する、LLM 用の有限状態マシン誘導デコードである TOOLDEC を提案しています。
featured image - LLM における構文エラーのない一般化可能なツールの使用: 結論と参考文献
Writings, Papers and Blogs on Text Models HackerNoon profile picture
0-item

著者:

(1)ケクサン・チャン、カリフォルニア大学サンタバーバラ校および平等な貢献

(2)ホンチャオ・チェン、ノースウッド高校と平等な貢献。

(3)カーネギーメロン大学のレイ・リー氏

(4)ウィリアム・ヤン・ワン、カリフォルニア大学サンタバーバラ校

リンク一覧

6. 結論

この論文では、外部ツールを統合し、その呼び出しが構文エラーのないことを保証することで大規模言語モデル (LLM) を強化するように設計された新しいデコード アルゴリズム TOOLDEC を紹介します。TOOLDEC は、ツールのドキュメントと API 署名から構築された有限状態マシンによってガイドされ、ツール呼び出しの文法を正確に表現し、誤ったツール呼び出しや、既存モデル内の未知のツールへの一般化の不十分さなどの一般的な問題に対処します。


実験により、TOOLDEC はツール関連の構文エラーを排除し、精度を向上させ、さまざまなベンチマークで推論時間を節約することが実証されています。また、追加の微調整データなしで、複数のドメインの未知のツールに一般化する機能も示しています。TOOLDEC による進歩により、追加のトレーニング データなしで幅広いツールやアプリケーションに適応できる、より洗練されたモデルを開発する研究への道が開かれ、より広範囲の複雑な問題を解決できる、より汎用的で堅牢な LLM が実現します。


TOOLDEC が構文エラーを排除することに成功したことで、ツール呼び出しの意味的正確性とコンテキストの関連性に焦点を当てた研究が促進される可能性があります。これにより、ツールをより効果的に呼び出し、理解し、活用するモデルが生まれ、LLM の全体的な問題解決能力が向上します。

参考文献

Peter Anderson、Basura Fernando、Mark Johnson、Stephen Gould。制約ビーム探索によるガイド付きオープン語彙画像キャプション作成。2017 年自然言語処理における経験的手法に関する会議の議事録、pp. 936–945、コペンハーゲン、デンマーク、2017 年 9 月。計算言語学協会。doi: 10.18653/v1/D17-1098。URL https://aclanthology.org/D17-1098。


Sebastian Borgeaud、Arthur Mensch、Jordan Hoffmann、Trevor Cai、Eliza Rutherford、Katie Millican、George Bm Van Den Driessche、Jean-Baptiste Lespiau、Bogdan Damoc、Aidan Clark、他「数兆個のトークンから取得することで言語モデルを改善する」。機械学習に関する国際会議、pp. 2206–2240。PMLR、2022年。


Tom Brown、Benjamin Mann、Nick Ryder、Melanie Subbiah、Jared D Kaplan、Prafulla Dhariwal、Arvind Neelakantan、Pranav Shyam、Girish Sastry、Amanda Askell、他「言語モデルは少数ショット学習者です」。神経情報処理システムの進歩、33:1877–1901、2020年。


Wenhu Chen、Xueguang Ma、Xinyi Wang、William W Cohen。思考を促すプログラム:数値推論タスクのための計算と推論の分離。arXiv e-prints、pp. arXiv–2211、2022年。


Jason Eisner. 確率的有限状態トランスデューサのパラメータ推定。計算言語学会第 40 回年次会議の議事録、pp. 1–8、2002 年。


エドワード・フレドキン「トライメモリ」Communications of the ACM、3(9):490–499、1960年。


Luyu Gao、Aman Madaan、Shuyan Zhou、Uri Alon、Pengfei Liu、Yiming Yang、Jamie Callan、およびGraham Neubig。Pal:プログラム支援言語モデル。機械学習に関する国際会議、pp. 10764–10799。PMLR、2023。


Tanmay Gupta と Aniruddha Kembhavi。ビジュアルプログラミング: トレーニングなしの構成的視覚推論。ArXiv、abs/2211.11559、2022。


Kelvin Guu、Kenton Lee、Zora Tung、Panupong Pasupat、Mingwei Chang。検索強化言語モデルの事前トレーニング。機械学習に関する国際会議、pp. 3929–3938。PMLR、2020年。


Shibo Hao、Tianyang Liu、Zhen Wang、Zhiting Hu。Toolkengpt: ツール埋め込みによる大規模ツールによる固定言語モデルの拡張。arXiv プレプリント arXiv:2305.11554、2023。


Chris Hokamp と Qun Liu。グリッドビームサーチを使用したシーケンス生成のための語彙制約デコード。計算言語学協会第 55 回年次会議の議事録 (第 1 巻: 長文論文)、pp. 1535–1546、バンクーバー、カナダ、2017 年 7 月。計算言語学協会。doi: 10.18653/v1/P17-1141。URL https://aclanthology.org/P17-1141。


Jan-Christoph Kalo と Leandra Fichtel。Kamel: 言語モデルにおけるマルチトークンエンティティを使用した知識分析。自動知識ベース構築、2022 年。


Li Li、Wu Chou、Wei Zhou、Min Luo。ネットワーク アプリケーション向け REST API の設計パターンと拡張性。IEEE Transactions on Network and Service Management、13(1):154–167、2016 年。


Ximing Lu、Peter West、Rowan Zellers、Ronan Le Bras、Chandra Bhagavatula、Yejin Choi。神経学的デコード:述語論理制約による(非)教師ありニューラルテキスト生成。2021年北米支部計算言語学会会議議事録:人間言語技術、pp. 4288–4299、2021年。


Ximing Lu、Sean Welleck、Peter West、Liwei Jiang、Jungo Kasai、Daniel Khashabi、Ronan Le Bras、Lianhui Qin、Youngjae Yu、Rowan Zellers、他「Neurologic a* esque デコード: 先読みヒューリスティックによる制約付きテキスト生成」。2022 年北米支部計算言語学会会議論文集: 人間言語技術、780~799 ページ、2022 年。


Gregoire Mialon、Roberto Dess ´ `ı、Maria Lomeli、Christoforos Nalmpantis、Ram Pasunuru、Roberta Raileanu、Baptiste Roziere、Timo Schick、Jane Dwivedi-Yu、Asli Celikyilmaz、他「拡張言語モデル:調査」arXiv プレプリント arXiv:2302.07842、2023 年。


Ning Miao、Hao Zhou、Lili Mou、Rui Yan、Lei Li。Cgmh: メトロポリス・ヘイスティングス・サンプリングによる制約付き文生成。AAAI人工知能会議論文集、第33巻、pp. 6834–6842、2019年。


Reiichiro Nakano、Jacob Hilton、Suchir Balaji、Jeff Wu、Long Ouyang、Christina Kim、Christopher Hesse、Shantanu Jain、Vineet Kosaraju、William Saunders、他「Webgpt: 人間によるフィードバックによるブラウザ支援の質問応答」arXiv プレプリント arXiv:2112.09332、2021 年。


Long Ouyang、Jeffrey Wu、Xu Jiang、Diogo Almeida、Carroll Wainwright、Pamela Mishkin、Chong Zhang、Sandhini Agarwal、Katarina Slama、Alex Ray、他「人間のフィードバックによる指示に従う言語モデルのトレーニング」神経情報処理システムの進歩、35: 27730–27744、2022年。


Aaron Parisi、Yao Zhao、Noah Fiedel。Talm: ツール拡張言語モデル。arXiv プレプリント arXiv:2205.12255、2022 年。


Yujia Qin、Shihao Liang、Yining Ye、Kunlun Zhu、Lan Yan、Yaxi Lu、Yankai Lin、Xin Cong、Xiangru Tang、Bill Qian 他Toolllm: 16000 以上の実際の API を習得するための大規模な言語モデルを促進します。 arXivプレプリントarXiv:2307.16789、2023。


Pushpendre Rastogi、Ryan Cotterell、Jason Eisner。神経コンテキストによる有限状態変換の重み付け。2016 年北米支部計算言語学会会議議事録: 人間の言語技術、pp. 623–633、2016 年。


Timo Schick、Jane Dwivedi-Yu、Roberto Dess`ı、Roberta Raileanu、Maria Lomeli、Luke Zettlemoyer、Nicola Cancedda、および Thomas Scialom。Toolformer: 言語モデルはツールの使用方法を自ら学習できます。arXiv プレプリント arXiv:2302.04761、2023 年。


Yongliang Shen、Kaitao Song、Xu Tan、Dongsheng Li、Weiming Lu、Yueting Zhuang。 Hugginggpt: 2023 年に、Hugging Face で Chatgpt とその仲間たちと一緒に AI タスクを解決します。


Yifan Song、Weimin Xiong、Dawei Zhu、Wenhao Wu、Han Qian、Mingbo Song、Hailiang Huang、Cheng Li、Ke Wang、Rong Yao、Ye Tian、Sujian Li。 Restgpt: 大規模言語モデルを現実世界の RESTful API に接続する、2023 年。


Hugo Touvron、Thibaut Lavril、Gautier Izacard、Xavier Martinet、Marie-Anne Lachaux、Timothee´ Lacroix、Baptiste Roziere、Naman Goyal、Eric Hambro、Faisal Azhar、Aurelien Rodriguez、Ar- `mand Joulin、Edouard Grave、Guillaume Lample。Llama: オープンで効率的な基礎言語モデル、2023年。


Shunyu Yao、Jeffrey Zhao、Dian Yu、Nan Du、Izhak Shafran、Karthik Narasimhan、Yuan Cao。 React: 言語モデルにおける推論と行動の相乗効果、2023 年。


Lianmin Zheng、Wei-Lin Chiang、Ying Sheng、Siyuan Zhuang、Zhanghao Wu、Yonghao Zhuang、Zi Lin、Zhuohan Li、Dacheng Li、Eric。 P Xing、Hao Zhang、Joseph E. Gonzalez、Ion Stoica です。 2023 年、mt-bench とチャットボット アリーナを使用して LLM-as-a-judge を審査します。


この論文は、CC 4.0 DEED ライセンスの下でarxiv で公開されています