paint-brush
Syntaxfehlerfreier und generalisierbarer Tooleinsatz für LL.M.: Fazit und Referenzenvon@textmodels

Syntaxfehlerfreier und generalisierbarer Tooleinsatz für LL.M.: Fazit und Referenzen

Zu lang; Lesen

Forscher schlagen TOOLDEC vor, eine durch Finite-State-Machine-geführte Dekodierung für LLMs, die Fehler reduziert und die Tool-Nutzung verbessert.
featured image - Syntaxfehlerfreier und generalisierbarer Tooleinsatz für LL.M.: Fazit und Referenzen
Writings, Papers and Blogs on Text Models HackerNoon profile picture
0-item

Autoren:

(1) Kexun Zhang, UC Santa Barbara und gleicher Beitrag;

(2) Hongqiao Chen, Northwood High School und gleicher Beitrag;

(3) Lei Li, Carnegie Mellon Universität;

(4) William Yang Wang,UC Santa Barbara.

Linktabelle

6. SCHLUSSFOLGERUNG

In diesem Artikel wird TOOLDEC vorgestellt, ein neuartiger Dekodierungsalgorithmus, der Large Language Models (LLMs) durch die Integration externer Tools und die Gewährleistung eines syntaxfehlerfreien Aufrufs verbessern soll. TOOLDEC wird von einer Finite-State-Maschine gesteuert, die aus Tool-Dokumentation und API-Signaturen erstellt wurde. Es stellt die Grammatik von Tool-Aufrufen präzise dar und behebt häufige Probleme wie fehlerhafte Tool-Aufrufe und schlechte Verallgemeinerung auf in vorhandenen Modellen nicht vorhandene Tools.


Experimente zeigen, dass TOOLDEC werkzeugbezogene Syntaxfehler eliminiert, die Genauigkeit verbessert und Inferenzzeit bei verschiedenen Benchmarks spart. Es zeigt auch die Fähigkeit, auf bisher unbekannte Werkzeuge in mehreren Bereichen zu verallgemeinern, ohne dass zusätzliche Feinabstimmungsdaten erforderlich sind. Die Fortschritte von TOOLDEC eröffnen neue Forschungsmöglichkeiten bei der Entwicklung ausgefeilterer Modelle, die sich ohne zusätzliche Trainingsdaten an eine größere Bandbreite von Werkzeugen und Anwendungen anpassen lassen, was zu vielseitigeren und robusteren LLMs führt, die ein breiteres Spektrum komplexer Probleme lösen können.


Der Erfolg von TOOLDEC bei der Beseitigung von Syntaxfehlern kann Forschungen inspirieren, die sich auf die semantische Genauigkeit und kontextuelle Relevanz von Tool-Aufrufen konzentrieren. Dies kann zu Modellen führen, die Tools effektiver aufrufen, verstehen und nutzen und so die allgemeinen Problemlösungsfähigkeiten von LLMs verbessern.

VERWEISE

Peter Anderson, Basura Fernando, Mark Johnson und Stephen Gould. Geführte Bildbeschriftung mit offenem Vokabular und eingeschränkter Strahlensuche. In Proceedings der Konferenz 2017 über empirische Methoden in der Verarbeitung natürlicher Sprache, S. 936–945, Kopenhagen, Dänemark, September 2017. Association for Computational Linguistics. doi: 10.18653/v1/D17-1098. URL https://aclanthology.org/D17-1098.


Sebastian Borgeaud, Arthur Mensch, Jordan Hoffmann, Trevor Cai, Eliza Rutherford, Katie Millican, George Bm Van Den Driessche, Jean-Baptiste Lespiau, Bogdan Damoc, Aidan Clark, et al. Verbesserung von Sprachmodellen durch Abrufen von Billionen von Token. In Internationale Konferenz zum maschinellen Lernen, S. 2206–2240. PMLR, 2022.


Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Sprachmodelle sind Lerner mit wenigen Versuchen. Fortschritte in neuronalen Informationsverarbeitungssystemen, 33:1877–1901, 2020.


Wenhu Chen, Xueguang Ma, Xinyi Wang und William W Cohen. Programm zur Gedankenanregung: Trennung von Berechnung und Argumentation für numerische Denkaufgaben. arXiv e-prints, S. arXiv–2211, 2022.


Jason Eisner. Parameterschätzung für probabilistische Finite-State-Transducer. In Proceedings der 40. Jahrestagung der Association for Computational Linguistics, S. 1–8, 2002.


Edward Fredkin. Trie-Gedächtnis. Communications of the ACM, 3(9):490–499, 1960.


Luyu Gao, Aman Madaan, Shuyan Zhou, Uri Alon, Pengfei Liu, Yiming Yang, Jamie Callan und Graham Neubig. Pal: Programmgestützte Sprachmodelle. In International Conference on Machine Learning, S. 10764–10799. PMLR, 2023.


Tanmay Gupta und Aniruddha Kembhavi. Visuelle Programmierung: Kompositionelles visuelles Denken ohne Training. ArXiv, abs/2211.11559, 2022.


Kelvin Guu, Kenton Lee, Zora Tung, Panupong Pasupat und Mingwei Chang. Retrieval-erweitertes Sprachmodell-Vortraining. In Internationale Konferenz zum maschinellen Lernen, S. 3929–3938. PMLR, 2020.


Shibo Hao, Tianyang Liu, Zhen Wang und Zhiting Hu. Toolkengpt: Erweitern eingefrorener Sprachmodelle mit massiven Tools durch Tool-Embeddings. arXiv-Preprint arXiv:2305.11554, 2023.


Chris Hokamp und Qun Liu. Lexikalisch eingeschränkte Dekodierung zur Sequenzgenerierung mithilfe der Grid-Beam-Suche. In Proceedings der 55. Jahrestagung der Association for Computational Linguistics (Band 1: Lange Beiträge), S. 1535–1546, Vancouver, Kanada, Juli 2017. Association for Computational Linguistics. doi: 10.18653/v1/P17-1141. URL https://aclanthology.org/P17-1141.


Jan-Christoph Kalo und Leandra Fichtel. Kamel : Wissensanalyse mit Multitoken-Entitäten in Sprachmodellen. Automatisierter Wissensdatenbankaufbau, 2022.


Li Li, Wu Chou, Wei Zhou und Min Luo. Entwurfsmuster und Erweiterbarkeit von Rest-APIs für Netzwerkanwendungen. IEEE Transactions on Network and Service Management, 13(1):154–167, 2016.


Ximing Lu, Peter West, Rowan Zellers, Ronan Le Bras, Chandra Bhagavatula und Yejin Choi. Neurologische Dekodierung: (un)überwachte neuronale Textgenerierung mit prädikatenlogischen Einschränkungen. In Proceedings der Konferenz 2021 des nordamerikanischen Kapitels der Association for Computational Linguistics: Human Language Technologies, S. 4288–4299, 2021.


Ximing Lu, Sean Welleck, Peter West, Liwei Jiang, Jungo Kasai, Daniel Khashabi, Ronan Le Bras, Lianhui Qin, Youngjae Yu, Rowan Zellers, et al. Neurologische a*-artige Dekodierung: Eingeschränkte Textgenerierung mit Lookahead-Heuristik. In Proceedings der Konferenz 2022 des nordamerikanischen Kapitels der Association for Computational Linguistics: Human Language Technologies, S. 780–799, 2022.


Gregoire Mialon, Roberto Dess ´ `ı, Maria Lomeli, Christoforos Nalmpantis, Ram Pasunuru, Roberta Raileanu, Baptiste Roziere, Timo Schick, Jane Dwivedi-Yu, Asli Celikyilmaz, et al. Erweiterte ` Sprachmodelle: eine Untersuchung. arXiv-Vorabdruck arXiv:2302.07842, 2023.


Ning Miao, Hao Zhou, Lili Mou, Rui Yan und Lei Li. Cgmh: Eingeschränkte Satzgenerierung durch Metropolis-Hastings-Sampling. In Proceedings of the AAAI Conference on Artificial Intelligence, Band 33, S. 6834–6842, 2019.


Reiichiro Nakano, Jacob Hilton, Suchir Balaji, Jeff Wu, Long Ouyang, Christina Kim, Christopher Hesse, Shantanu Jain, Vineet Kosaraju, William Saunders, et al. Webgpt: Browsergestütztes Fragen-Beantworten mit menschlichem Feedback. arXiv-Vorabdruck arXiv:2112.09332, 2021.


Long Ouyang, Jeffrey Wu, Xu Jiang, Diogo Almeida, Carroll Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, et al. Sprachmodelle trainieren, um Anweisungen mit menschlichem Feedback zu befolgen. Advances in Neural Information Processing Systems, 35: 27730–27744, 2022.


Aaron Parisi, Yao Zhao und Noah Fiedel. Talm: Tool augmented language models. arXiv-Preprint arXiv:2205.12255, 2022.


Yujia Qin, Shihao Liang, Yining Ye, Kunlun Zhu, Lan Yan, Yaxi Lu, Yankai Lin, Xin Cong, Xiangru Tang, Bill Qian et al. Toolllm: Erleichterung großer Sprachmodelle zur Beherrschung von über 16.000 realen APIs. arXiv-Vorabdruck arXiv:2307.16789, 2023.


Pushpendre Rastogi, Ryan Cotterell und Jason Eisner. Gewichtung von Finite-State-Transduktionen mit neuronalem Kontext. In Proceedings der Konferenz 2016 des nordamerikanischen Kapitels der Association for Computational Linguistics: Human Language Technologies, S. 623–633, 2016.


Timo Schick, Jane Dwivedi-Yu, Roberto Dess`ı, Roberta Raileanu, Maria Lomeli, Luke Zettlemoyer, Nicola Cancedda und Thomas Scialom. Toolformer: Sprachmodelle können sich selbst den Gebrauch von Werkzeugen beibringen. arXiv-Preprint arXiv:2302.04761, 2023.


Yongliang Shen, Kaitao Song, Xu Tan, Dongsheng Li, Weiming Lu und Yueting Zhuang. Hugginggpt: Lösen von KI-Aufgaben mit Chatgpt und seinen Freunden in Hugging Face, 2023.


Yifan Song, Weimin Xiong, Dawei Zhu, Wenhao Wu, Han Qian, Mingbo Song, Hailiang Huang, Cheng Li, Ke Wang, Rong Yao, Ye Tian und Sujian Li. Restgpt: Verbinden großer Sprachmodelle mit realen Restful-APIs, 2023.


Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothee´ Lacroix, Baptiste Roziere, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Arm- ` mand Joulin, Edouard Grave und Guillaume Lample. Llama: Offene und effiziente grundlegende Sprachmodelle, 2023.


Shunyu Yao, Jeffrey Zhao, Dian Yu, Nan Du, Izhak Shafran, Karthik Narasimhan und Yuan Cao. React: Synergie aus Argumentation und Handeln in Sprachmodellen, 2023.


Lianmin Zheng, Wei-Lin Chiang, Ying Sheng, Siyuan Zhuang, Zhanghao Wu, Yonghao Zhuang, Zi Lin, Zhuohan Li, Dacheng Li, Eric. P Xing, Hao Zhang, Joseph E. Gonzalez und Ion Stoica. Beurteilung des LL.M. als Richter mit MT-Bench und Chatbot Arena, 2023.