paint-brush
LLM을 위한 구문 오류가 없고 일반화 가능한 도구 사용: 결론 및 참조~에 의해@textmodels

LLM을 위한 구문 오류가 없고 일반화 가능한 도구 사용: 결론 및 참조

너무 오래; 읽다

연구원들은 오류를 줄이고 도구 사용을 개선하는 LLM용 유한 상태 기계 유도 디코딩인 TOOLDEC을 제안합니다.
featured image - LLM을 위한 구문 오류가 없고 일반화 가능한 도구 사용: 결론 및 참조
Writings, Papers and Blogs on Text Models HackerNoon profile picture
0-item

저자:

(1) Kexun Zhang, UC Santa Barbara 및 균등 기여;

(2) Hongqiao Chen, Northwood 고등학교 및 균등 기여;

(3) 카네기멜론대학교 레이 리(Lei Li);

(4) 윌리엄 양 왕(UC Santa Barbara).

링크 표

6. 결론

이 문서에서는 외부 도구를 통합하고 호출에 구문 오류가 없도록 보장하여 LLM(대형 언어 모델)을 향상하도록 설계된 새로운 디코딩 알고리즘인 TOOLDEC을 제시합니다. 도구 문서 및 API 서명으로 구성된 유한 상태 기계를 기반으로 하는 TOOLDEC은 도구 호출의 문법을 정확하게 표현하여 잘못된 도구 호출 및 기존 모델에서 보이지 않는 도구에 대한 잘못된 일반화와 같은 널리 퍼진 문제를 해결합니다.


실험에 따르면 TOOLDEC은 도구 관련 구문 오류를 제거하고 정확도를 높이며 다양한 벤치마크에서 추론 시간을 절약합니다. 또한 추가적인 미세 조정 데이터 없이 여러 도메인에서 보이지 않는 도구를 일반화하는 기능도 보여줍니다. TOOLDEC의 발전은 추가 훈련 데이터 없이 더 넓은 범위의 도구 및 응용 프로그램에 적용할 수 있는 보다 정교한 모델을 개발하는 연구를 위한 길을 열어줌으로써 더 광범위하고 복잡한 문제를 해결할 수 있는 보다 다재다능하고 강력한 LLM으로 이어집니다.


구문 오류 제거에 있어서 TOOLDEC의 성공은 도구 호출의 의미적 정확성과 상황별 관련성에 초점을 맞춘 연구에 영감을 줄 수 있습니다. 이를 통해 도구를 보다 효과적으로 호출, 이해 및 활용하는 모델이 탄생하여 LLM의 전반적인 문제 해결 능력이 향상될 수 있습니다.

참고자료

피터 앤더슨, 바수라 페르난도, 마크 존슨, 스티븐 굴드. 제한된 빔 검색을 통한 개방형 어휘 이미지 캡션 안내. 자연어 처리의 경험적 방법에 관한 2017년 컨퍼런스 진행, pp. 936-945, 덴마크 코펜하겐, 2017년 9월. 전산 언어학 협회. 도이: 10.18653/v1/D17-1098. URL https://aclanthology.org/D17-1098.


Sebastian Borgeaud, Arthur Mensch, Jordan Hoffmann, Trevor Cai, Eliza Rutherford, Katie Millican, George Bm Van Den Driessche, Jean-Baptiste Lespiau, Bogdan Damoc, Aidan Clark 등 수조 개의 토큰을 검색하여 언어 모델을 개선합니다. 기계 학습에 관한 국제 컨퍼런스, pp. 2206–2240. PMLR, 2022.


Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell 등 언어 모델은 소수의 학습자입니다. 신경 정보 처리 시스템의 발전, 33:1877-1901, 2020.


Wenhu Chen, Xueguang Ma, Xinyi Wang, William W Cohen. 사고 유도 프로그램: 수치 추론 작업을 위해 추론과 계산을 분리합니다. arXiv e-인쇄물, pp. arXiv–2211, 2022.


제이슨 아이스너. 확률적 유한 상태 변환기에 대한 매개변수 추정. 전산언어학협회 제40차 연차총회 진행, 2002년 1~8페이지.


에드워드 프레드킨. 메모리를 사용해 보세요. ACM 커뮤니케이션, 3(9):490–499, 1960.


Luyu Gao, Aman Madaan, Shuyan Zhou, Uri Alon, Pengfei Liu, Yiming Yang, Jamie Callan 및 Graham Neubig. Pal: 프로그램 지원 언어 모델입니다. 기계 학습에 관한 국제 회의, pp. 10764–10799. PMLR, 2023.


탄메이 굽타(Tanmay Gupta)와 아니루다 켐바비(Aniruddha Kembhavi). 시각적 프로그래밍: 훈련 없이 구성적 시각적 추론. ArXiv, ABS/2211.11559, 2022.


Kelvin Guu, Kenton Lee, Zora Tung, Panupong Pasupat 및 Mingwei Chang. 증강 언어 모델 사전 훈련을 검색합니다. 기계 학습에 관한 국제 회의, pp. 3929–3938. PMLR, 2020.


Shibo Hao, Tianyang Liu, Zhen Wang 및 Zhiting Hu. Toolkengpt: 도구 임베딩을 통해 대규모 도구로 고정된 언어 모델을 강화합니다. arXiv 사전 인쇄 arXiv:2305.11554, 2023.


크리스 호캄프와 쿤 리우. 그리드 빔 검색을 사용하여 시퀀스 생성을 위한 어휘 제약 디코딩. 전산 언어학 협회 제55차 연례 회의 진행(1권: 긴 논문), pp. 1535-1546, 캐나다 밴쿠버, 2017년 7월. 전산 언어학 협회. 도이: 10.18653/v1/P17-1141. URL https://aclanthology.org/P17-1141.


얀 크리스토프 칼로(Jan-Christoph Kalo)와 레안드라 피히텔(Leandra Fichtel). Kamel: 언어 모델의 멀티토큰 엔터티를 사용한 지식 분석. 자동화된 지식 기반 구축, 2022.


리 리, 우추, 웨이저우, 민뤄. 네트워킹 애플리케이션을 위한 나머지 API의 디자인 패턴 및 확장성. 네트워크 및 서비스 관리에 관한 IEEE 거래, 13(1):154–167, 2016.


루 시밍, 피터 웨스트, 로완 젤러스, 로난 르 브라스, 찬드라 바가바툴라, 최예진. 신경학적 디코딩:(비) 술어 논리 제약이 있는 감독된 신경 텍스트 생성. 2021년 전산 언어학 협회 북미 지부 컨퍼런스 진행: 인간 언어 기술, pp. 4288-4299, 2021.


Ximing Lu, Sean Welleck, Peter West, Liwei Jiang, Jungo Kasai, Daniel Khashabi, Ronan Le Bras, Lianhui Qin, Youngjae Yu, Rowan Zellers 등 신경학적 a* esque 디코딩: 예측 휴리스틱을 사용하여 제한된 텍스트 생성. 2022년 전산 언어학 협회 북미 지부 컨퍼런스 진행: 인간 언어 기술, pp. 780-799, 2022.


Gregoire Mialon, Roberto Dess ``ı, Maria Lomeli, Christoforos Nalmpantis, Ram Pasunuru, Roberta Raileanu, Baptiste Roziere, Timo Schick, Jane Dwivedi-Yu, Asli Celikyilmaz 등 증강된 ` 언어 모델: 설문조사. arXiv 사전 인쇄 arXiv:2302.07842, 2023.


Ning Miao, Hao Zhou, Lili Mou, Rui Yan 및 Lei Li. Cgmh: 메트로폴리스-헤스팅스 샘플링을 통한 제한된 문장 생성. 인공 지능에 관한 AAAI 회의 간행물, 33권, 6834-6842페이지, 2019년.


Reiichiro Nakano, Jacob Hilton, Suchir Balaji, Jeff Wu, Long Ouyang, Christina Kim, Christopher Hesse, Shantanu Jain, Vineet Kosaraju, William Saunders 등 Webgpt: 사람의 피드백을 통한 브라우저 지원 질문 답변입니다. arXiv 사전 인쇄 arXiv:2112.09332, 2021.


Long Ouyang, Jeffrey Wu, Xu Jiang, Diogo Almeida, Carroll Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray 등 인간의 피드백을 통해 지침을 따르도록 언어 모델을 훈련합니다. 신경 정보 처리 시스템의 발전, 35: 27730–27744, 2022.


아론 파리시, 야오 자오, 노아 피델. Talm: 도구 증강 언어 모델. arXiv 사전 인쇄 arXiv:2205.12255, 2022.


Yujia Qin, Shihao Liang, Yining Ye, Kunlun Zhu, Lan Yan, Yaxi Lu, Yankai Lin, Xin Cong, Xiangru Tang, Bill Qian 등 Toolllm: 16000개 이상의 실제 API를 마스터하기 위해 대규모 언어 모델을 촉진합니다. arXiv 사전 인쇄 arXiv:2307.16789, 2023.


푸쉬펜드레 라스토기, 라이언 코터렐, 제이슨 아이즈너. 신경 맥락을 통해 유한 상태 변환에 가중치를 부여합니다. 전산 언어학 협회 북미 지부의 2016년 컨퍼런스 진행: 인간 언어 기술, pp. 623-633, 2016.


Timo Schick, Jane Dwivedi-Yu, Roberto Dess`ı, Roberta Raileanu, Maria Lomeli, Luke Zettlemoyer, Nicola Cancedda 및 Thomas Scialom. Toolformer: 언어 모델은 도구 사용 방법을 스스로 학습할 수 있습니다. arXiv 사전 인쇄 arXiv:2302.04761, 2023.


Yongliang Shen, Kaitao Song, Xu Tan, Dongsheng Li, Weiming Lu 및 Yueting Zhuang. Hugginggpt: 포옹하는 얼굴로 chatgpt와 친구들과 함께 AI 작업 해결, 2023.


Yifan Song, Weimin Xiong, Dawei Zhu, Wenhao Wu, Han Qian, Mingbo Song, Hailiang Huang, Cheng Li, Ke Wang, Rong Yao, Ye Tian 및 Sujian Li. Restgpt: 실제 Restful API와 대규모 언어 모델 연결, 2023년.


Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothee´ Lacroix, Baptiste Roziere, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Ar-`mand Joulin, Edouard Grave 및 Guillaume Lample. Llama: 개방적이고 효율적인 기초 언어 모델, 2023.


Shunyu Yao, Jeffrey Zhao, Dian Yu, Nan Du, Izhak Shafran, Karthik Narasimhan 및 Yuan Cao. React: 언어 모델에서 추론과 행동의 시너지 효과, 2023.


Lianmin Zheng, Wei-Lin Chiang, Ying Sheng, Siyuan Zhuang, Zhanghao Wu, Yonghao Zhuang, Zi Lin, Zhuohan Li, Dacheng Li, Eric. P Xing, Hao Zhang, Joseph E. Gonzalez, Ion Stoica. mt-bench 및 챗봇 경기장을 통해 LLM을 판사로 심사, 2023.


이 문서는 CC 4.0 DEED 라이선스에 따라 arxiv에서 볼 수 있습니다.