paint-brush
Uso de herramientas generalizables y sin errores de sintaxis para LLM: conclusiones y referenciaspor@textmodels

Uso de herramientas generalizables y sin errores de sintaxis para LLM: conclusiones y referencias

Demasiado Largo; Para Leer

Los investigadores proponen TOOLDEC, una decodificación guiada por máquina de estado finito para LLM, que reduce los errores y mejora el uso de las herramientas.
featured image - Uso de herramientas generalizables y sin errores de sintaxis para LLM: conclusiones y referencias
Writings, Papers and Blogs on Text Models HackerNoon profile picture
0-item

Autores:

(1) Kexun Zhang, UC Santa Barbara y contribución de Equal;

(2) Hongqiao Chen, Escuela Secundaria Northwood y Contribución Igual;

(3) Lei Li, Universidad Carnegie Mellon;

(4) William Yang Wang, UC Santa Bárbara.

Tabla de enlaces

6. CONCLUSIÓN

Este artículo presenta TOOLDEC, un novedoso algoritmo de decodificación diseñado para mejorar los modelos de lenguajes grandes (LLM) integrando herramientas externas y garantizando que su invocación esté libre de errores de sintaxis. TOOLDEC, guiado por una máquina de estados finitos construida a partir de documentación de herramientas y firmas API, representa con precisión la gramática de las llamadas a herramientas, abordando problemas frecuentes como llamadas erróneas a herramientas y una generalización deficiente de herramientas invisibles en los modelos existentes.


Los experimentos demuestran que TOOLDEC elimina los errores de sintaxis relacionados con las herramientas, mejora la precisión y ahorra tiempo de inferencia en varios puntos de referencia. También muestra la capacidad de generalizar a herramientas invisibles en múltiples dominios sin datos de ajuste adicionales. Los avances de TOOLDEC abren vías para la investigación en el desarrollo de modelos más sofisticados adaptables a una gama más amplia de herramientas y aplicaciones sin datos de capacitación adicionales, lo que lleva a LLM más versátiles y robustos capaces de resolver un espectro más amplio de problemas complejos.


El éxito de TOOLDEC en la eliminación de errores de sintaxis puede inspirar investigaciones centradas en la precisión semántica y la relevancia contextual de las llamadas a herramientas. Esto puede conducir a modelos que invocan, comprenden y aprovechan herramientas de manera más efectiva, mejorando las capacidades generales de resolución de problemas de los LLM.

REFERENCIAS

Peter Anderson, Basura Fernando, Mark Johnson y Stephen Gould. Subtítulos de imágenes guiados de vocabulario abierto con búsqueda de haz restringido. En Actas de la Conferencia de 2017 sobre métodos empíricos en el procesamiento del lenguaje natural, págs. 936–945, Copenhague, Dinamarca, septiembre de 2017. Asociación de Lingüística Computacional. doi: 10.18653/v1/D17-1098. URL https://aclanthology.org/D17-1098.


Sebastian Borgeaud, Arthur Mensch, Jordan Hoffmann, Trevor Cai, Eliza Rutherford, Katie Millican, George Bm Van Den Driessche, Jean-Baptiste Lespiau, Bogdan Damoc, Aidan Clark, et al. Mejorar los modelos de lenguaje recuperando billones de tokens. En Conferencia internacional sobre aprendizaje automático, págs. 2206-2240. PMLR, 2022.


Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Los modelos de lenguaje son aprendices de pocas oportunidades. Avances en los sistemas de procesamiento de información neuronal, 33:1877–1901, 2020.


Wenhu Chen, Xueguang Ma, Xinyi Wang y William W. Cohen. Programa de estimulación de pensamientos: desenredar la computación del razonamiento para tareas de razonamiento numérico. arXiv e-prints, págs. arXiv–2211, 2022.


Jason Eisner. Estimación de parámetros para transductores probabilísticos de estados finitos. En Actas de la 40ª Reunión Anual de la Asociación de Lingüística Computacional, págs. 1 a 8, 2002.


Eduardo Fredkin. Prueba la memoria. Comunicaciones de la ACM, 3(9):490–499, 1960.


Luyu Gao, Aman Madaan, Shuyan Zhou, Uri Alon, Pengfei Liu, Yiming Yang, Jamie Callan y Graham Neubig. Pal: Modelos de lenguaje asistidos por programas. En Conferencia internacional sobre aprendizaje automático, págs. 10764–10799. PMLR, 2023.


Tanmay Gupta y Aniruddha Kembhavi. Programación visual: Razonamiento visual compositivo sin entrenamiento. ArXiv, abs/2211.11559, 2022.


Kelvin Guu, Kenton Lee, Zora Tung, Panupong Pasupat y Mingwei Chang. Preentrenamiento del modelo de lenguaje aumentado de recuperación. En Conferencia internacional sobre aprendizaje automático, págs. 3929–3938. PMLR, 2020.


Shibo Hao, Tianyang Liu, Zhen Wang y Zhiting Hu. Toolkengpt: aumento de modelos de lenguaje congelados con herramientas masivas mediante la incorporación de herramientas. Preimpresión de arXiv arXiv:2305.11554, 2023.


Chris Hokamp y Qun Liu. Decodificación léxicamente restringida para la generación de secuencias mediante búsqueda de haz de cuadrícula. En Actas de la 55ª Reunión Anual de la Asociación de Lingüística Computacional (Volumen 1: Artículos extensos), págs. 1535-1546, Vancouver, Canadá, julio de 2017. Asociación de Lingüística Computacional. doi: 10.18653/v1/P17-1141. URL https://aclanthology.org/P17-1141.


Jan-Christoph Kalo y Leandra Fichtel. Kamel: Análisis de conocimiento con entidades multitoken en modelos de lenguaje. Construcción automatizada de bases de conocimientos, 2022.


Li Li, Wu Chou, Wei Zhou y Min Luo. Patrones de diseño y extensibilidad de rest api para aplicaciones de red. Transacciones IEEE sobre gestión de redes y servicios, 13(1):154–167, 2016.


Ximing Lu, Peter West, Rowan Zellers, Ronan Le Bras, Chandra Bhagavatula y Yejin Choi. Decodificación neurológica: generación (no) supervisada de texto neuronal con restricciones de lógica de predicados. En Actas de la Conferencia de 2021 del Capítulo Norteamericano de la Asociación de Lingüística Computacional: Tecnologías del Lenguaje Humano, págs. 4288–4299, 2021.


Ximing Lu, Sean Welleck, Peter West, Liwei Jiang, Jungo Kasai, Daniel Khashabi, Ronan Le Bras, Lianhui Qin, Youngjae Yu, Rowan Zellers, et al. Decodificación neurológica a* esque: generación de texto restringida con heurísticas de anticipación. En Actas de la Conferencia de 2022 del Capítulo Norteamericano de la Asociación de Lingüística Computacional: Tecnologías del Lenguaje Humano, págs. 780–799, 2022.


Gregoire Mialon, Roberto Dess ´ `ı, Maria Lomeli, Christoforos Nalmpantis, Ram Pasunuru, Roberta Raileanu, Baptiste Roziere, Timo Schick, Jane Dwivedi-Yu, Asli Celikyilmaz, et al. Modelos de lenguaje `aumentados: una encuesta. Preimpresión de arXiv arXiv:2302.07842, 2023.


Ning Miao, Hao Zhou, Lili Mou, Rui Yan y Lei Li. Cgmh: Generación de oraciones restringida mediante muestreo de Metrópolis-Hastings. En Actas de la Conferencia AAAI sobre Inteligencia Artificial, volumen 33, págs. 6834–6842, 2019.


Reiichiro Nakano, Jacob Hilton, Suchir Balaji, Jeff Wu, Long Ouyang, Christina Kim, Christopher Hesse, Shantanu Jain, Vineet Kosaraju, William Saunders, et al. Webgpt: respuesta a preguntas asistida por navegador con comentarios humanos. Preimpresión de arXiv arXiv:2112.09332, 2021.


Long Ouyang, Jeffrey Wu, Xu Jiang, Diogo Almeida, Carroll Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, et al. Entrenar modelos de lenguaje para seguir instrucciones con retroalimentación humana. Avances en los sistemas de procesamiento de información neuronal, 35: 27730–27744, 2022.


Aaron Parisi, Yao Zhao y Noah Fiedel. Talm: Herramienta de modelos de lenguaje aumentado. Preimpresión de arXiv arXiv:2205.12255, 2022.


Yujia Qin, Shihao Liang, Yining Ye, Kunlun Zhu, Lan Yan, Yaxi Lu, Yankai Lin, Xin Cong, Xiangru Tang, Bill Qian, et al. Toolllm: Facilitación de modelos de lenguaje grandes para dominar más de 16000 API del mundo real. Preimpresión de arXiv arXiv:2307.16789, 2023.


Pushpendre Rastogi, Ryan Cotterell y Jason Eisner. Ponderación de transducciones de estados finitos con contexto neuronal. En Actas de la conferencia de 2016 del capítulo norteamericano de la Asociación de Lingüística Computacional: tecnologías del lenguaje humano, págs. 623–633, 2016.


Timo Schick, Jane Dwivedi-Yu, Roberto Dess`ı, Roberta Raileanu, Maria Lomeli, Luke Zettlemoyer, Nicola Cancedda y Thomas Scialom. Toolformer: Los modelos de lenguaje pueden aprender por sí mismos a utilizar herramientas. Preimpresión de arXiv arXiv:2302.04761, 2023.


Yongliang Shen, Kaitao Song, Xu Tan, Dongsheng Li, Weiming Lu y Yueting Zhuang. Hugginggpt: resolución de tareas de IA con chatgpt y sus amigos en Hugging Face, 2023.


Yifan Song, Weimin Xiong, Dawei Zhu, Wenhao Wu, Han Qian, Mingbo Song, Hailiang Huang, Cheng Li, Ke Wang, Rong Yao, Ye Tian y Sujian Li. Restgpt: Conexión de modelos de lenguaje grandes con API Restful del mundo real, 2023.


Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothee´ Lacroix, Baptiste Roziere, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave y Guillaume Lample. Llama: modelos de lenguaje básico abiertos y eficientes, 2023.


Shunyu Yao, Jeffrey Zhao, Dian Yu, Nan Du, Izhak Shafran, Karthik Narasimhan y Yuan Cao. React: Sinergizar el razonamiento y la actuación en modelos de lenguaje, 2023.


Lianmin Zheng, Wei-Lin Chiang, Ying Sheng, Siyuan Zhuang, Zhanghao Wu, Yonghao Zhuang, Zi Lin, Zhuohan Li, Dacheng Li, Eric. P Xing, Hao Zhang, Joseph E. González e Ion Stoica. Juzgando llm como juez con mt-bench y chatbot arena, 2023.


Este documento está disponible en arxiv bajo licencia CC 4.0 DEED.