paint-brush
Utilisation d'outils de syntaxe sans erreur et généralisables pour les LLM : travaux connexespar@textmodels

Utilisation d'outils de syntaxe sans erreur et généralisables pour les LLM : travaux connexes

Trop long; Pour lire

Les chercheurs proposent TOOLDEC, un décodage guidé par machine à états finis pour les LLM, réduisant les erreurs et améliorant l'utilisation des outils.
featured image - Utilisation d'outils de syntaxe sans erreur et généralisables pour les LLM : travaux connexes
Writings, Papers and Blogs on Text Models HackerNoon profile picture
0-item

Auteurs:

(1) Kexun Zhang, UC Santa Barbara et contribution égale ;

(2) Hongqiao Chen, Northwood High School et contribution égale ;

(3) Lei Li, Université Carnegie Mellon ;

(4) William Yang Wang, UC Santa Barbara.

Tableau des liens

2. TRAVAUX CONNEXES

Affiner les modèles de langage pour utiliser les outils. Les modèles de langage peuvent être ajustés pour utiliser des outils avec des données contenant du texte entrelacé et l'utilisation d'outils. Des études antérieures obligent les modèles de langage à utiliser un seul outil comme un module de récupération (Borgeaud et al., 2022 ; Guu et al., 2020) ou un moteur de recherche (Nakano et al., 2021) en affinant. Les progrès récents dans les modèles de langage augmentés par des outils qui utilisent plusieurs outils (Schick et al., 2023 ; Parisi et al., 2022) affinent également les modèles de langage pour utiliser des outils tels que des modèles d'assurance qualité, des modèles de traduction, des calculatrices et des moteurs de recherche. ToolkenGPT (Hao et al., 2023) propose d'utiliser plusieurs jetons spéciaux pour représenter les outils et ajuste uniquement les intégrations des jetons afin que l'adoption de nouveaux outils puisse être plus efficace. Cependant, les approches de réglage fin de l’utilisation des outils nécessitent encore de nouvelles données et des ajustements supplémentaires pour adapter un modèle aux nouveaux outils. Nous énumérons les différences entre le décodage à états finis et les deux paradigmes précédents dans le tableau 1.


Apprentissage en contexte pour l'utilisation des outils. Les modèles linguistiques peuvent apprendre à partir d'exemples contextuels (Brown et al., 2020) et suivre des instructions (Ouyang et al., 2022). Cela permet de mettre simplement les descriptions des outils dans l'invite et de demander aux modèles de langage de les utiliser. Des travaux récents ont utilisé cette possibilité pour utiliser des modèles neuronaux (Shen et al., 2023), des API RESTful (Qin et al., 2023 ; Song et al., 2023), des interprètes de programmes (Chen et al., 2022 ; Gao et al., 2023). ., 2023) et de nombreux autres outils pour résoudre les problèmes. L'apprentissage en contexte ne nécessite pas de réglage supplémentaire du modèle pour utiliser de nouveaux outils. Cependant, la description et la documentation des nouveaux outils doivent toujours figurer dans l'invite, ce qui augmente le coût de calcul et limite le budget contextuel permettant au modèle de raisonner réellement sur la tâche.


Décodage contraint et machines à états finis. Les précédentes méthodes de décodage contraint se concentrent principalement sur les contraintes lexicales (Anderson et al., 2017). Ils réduisent le vaste espace de recherche du décodage lexicalement contraint avec des machines à états finis (Anderson et al., 2017), regroupant des candidats similaires (Hokamp & Liu, 2017) et de meilleurs algorithmes de recherche (Miao et al., 2019 ; Lu et et al., 2021 ; 2022). Cependant, les contraintes lexicales ne sont pas suffisamment expressives pour réguler les appels d’outils. Alors que les machines à états finis doivent être pondérées et probabilistes pour gérer les contraintes souples du langage naturel (Eisner, 2002 ; Rastogi et al., 2016), les contraintes pour les appels d'outils syntaxiques sont des contraintes strictes qui sont beaucoup plus faciles pour les FSM. Par conséquent, nous proposons TOOLDEC pour répondre aux contraintes syntaxiques d’un appel d’outil valide.


Cet article est disponible sur arxiv sous licence CC 4.0 DEED.