paint-brush
Sử dụng công cụ không có lỗi và có thể khái quát hóa cho LLM: Kết luận và tài liệu tham khảotừ tác giả@textmodels

Sử dụng công cụ không có lỗi và có thể khái quát hóa cho LLM: Kết luận và tài liệu tham khảo

từ tác giả Writings, Papers and Blogs on Text Models5m2024/06/02
Read on Terminal Reader

dài quá đọc không nổi

Các nhà nghiên cứu đề xuất TOOLDEC, một giải mã được hướng dẫn bằng máy ở trạng thái hữu hạn cho LLM, giúp giảm lỗi và cải thiện việc sử dụng công cụ.
featured image - Sử dụng công cụ không có lỗi và có thể khái quát hóa cho LLM: Kết luận và tài liệu tham khảo
Writings, Papers and Blogs on Text Models HackerNoon profile picture
0-item

tác giả:

(1) Kexun Zhang, UC Santa Barbara và đóng góp bình đẳng;

(2) Hongqiao Chen, Trường Trung học Northwood và đóng góp bình đẳng;

(3) Lei Li, Đại học Carnegie Mellon;

(4) William Yang Wang, UC Santa Barbara.

Bảng liên kết

6. KẾT LUẬN

Bài viết này trình bày TOOLDEC, một thuật toán giải mã mới được thiết kế để nâng cao Mô hình ngôn ngữ lớn (LLM) bằng cách tích hợp các công cụ bên ngoài và đảm bảo lệnh gọi của chúng không có lỗi cú pháp. TOOLDEC, được hướng dẫn bởi một máy trạng thái hữu hạn được xây dựng từ tài liệu công cụ và chữ ký API, thể hiện chính xác ngữ pháp của lệnh gọi công cụ, giải quyết các vấn đề phổ biến như lệnh gọi công cụ sai và khả năng khái quát hóa kém đối với các công cụ không nhìn thấy được trong các mô hình hiện có.


Các thử nghiệm chứng minh rằng TOOLDEC loại bỏ các lỗi cú pháp liên quan đến công cụ, cải thiện độ chính xác và tiết kiệm thời gian suy luận trên nhiều tiêu chuẩn khác nhau. Nó cũng thể hiện khả năng khái quát hóa các công cụ chưa thấy trong nhiều lĩnh vực mà không cần thêm dữ liệu tinh chỉnh. Những tiến bộ của TOOLDEC mở ra con đường nghiên cứu trong việc phát triển các mô hình phức tạp hơn có khả năng thích ứng với nhiều công cụ và ứng dụng hơn mà không cần dữ liệu đào tạo bổ sung, dẫn đến LLM linh hoạt và mạnh mẽ hơn có khả năng giải quyết nhiều vấn đề phức tạp hơn.


Thành công của TOOLDEC trong việc loại bỏ các lỗi cú pháp có thể truyền cảm hứng cho nghiên cứu tập trung vào độ chính xác về ngữ nghĩa và mức độ phù hợp theo ngữ cảnh của các lệnh gọi công cụ. Điều này có thể dẫn đến các mô hình gọi, hiểu và tận dụng các công cụ hiệu quả hơn, nâng cao khả năng giải quyết vấn đề tổng thể của LLM.

NGƯỜI GIỚI THIỆU

Peter Anderson, Basura Fernando, Mark Johnson và Stephen Gould. Chú thích hình ảnh từ vựng mở có hướng dẫn với tìm kiếm chùm hạn chế. Trong Kỷ yếu của Hội nghị năm 2017 về các phương pháp thực nghiệm trong xử lý ngôn ngữ tự nhiên, trang 936–945, Copenhagen, Đan Mạch, tháng 9 năm 2017. Hiệp hội Ngôn ngữ học tính toán. doi: 10.18653/v1/D17-1098. URL https://aclanthology.org/D17-1098.


Sebastian Borgeaud, Arthur Mensch, Jordan Hoffmann, Trevor Cai, Eliza Rutherford, Katie Millican, George Bm Van Den Driessche, Jean-Baptiste Lespiau, Bogdan Damoc, Aidan Clark, và những người khác. Cải thiện mô hình ngôn ngữ bằng cách truy xuất từ hàng nghìn tỷ mã thông báo. Trong hội nghị quốc tế về học máy, trang 2206–2240. PMLR, 2022.


Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, và những người khác. Các mô hình ngôn ngữ là những người học ít lần. Những tiến bộ trong hệ thống xử lý thông tin thần kinh, 33:1877–1901, 2020.


Wenhu Chen, Xueguang Ma, Xinyi Wang và William W Cohen. Chương trình nhắc nhở suy nghĩ: Tách tính toán khỏi lý luận cho các nhiệm vụ lý luận số. Bản in điện tử arXiv, trang arXiv–2211, 2022.


Jason Eisner. Ước tính tham số cho các bộ chuyển đổi trạng thái hữu hạn xác suất. Trong Kỷ yếu Hội nghị thường niên lần thứ 40 của Hiệp hội Ngôn ngữ học tính toán, trang 1–8, 2002.


Edward Fredkin. Trí nhớ. Thông tin của ACM, 3(9):490–499, 1960.


Luyu Gao, Aman Madaan, Shuyan Chu, Uri Alon, Pengfei Liu, Yiming Yang, Jamie Callan và Graham Neubig. Pal: Mô hình ngôn ngữ được chương trình hỗ trợ. Trong Hội nghị quốc tế về học máy, trang 10764–10799. PMLR, 2023.


Tanmay Gupta và Aniruddha Kembhavi. Lập trình trực quan: Lập luận trực quan về mặt bố cục mà không cần đào tạo. ArXiv, abs/2211.11559, 2022.


Kelvin Guu, Kenton Lee, Zora Tung, Panupong Pasupat và Mingwei Chang. Đào tạo trước mô hình ngôn ngữ tăng cường truy xuất. Trong Hội nghị quốc tế về học máy, trang 3929–3938. PMLR, 2020.


Shibo Hao, Tianyang Liu, Zhen Wang và Zhiting Hu. Toolkengpt: Tăng cường các mô hình ngôn ngữ cố định bằng các công cụ khổng lồ thông qua việc nhúng công cụ. bản in trước arXiv arXiv:2305.11554, 2023.


Chris Hokamp và Qun Liu. Giải mã bị ràng buộc về mặt từ vựng để tạo chuỗi bằng cách sử dụng tìm kiếm chùm tia lưới. Trong Kỷ yếu Hội nghị thường niên lần thứ 55 của Hiệp hội Ngôn ngữ học tính toán (Tập 1: Bài viết dài), trang 1535–1546, Vancouver, Canada, tháng 7 năm 2017. Hiệp hội Ngôn ngữ học tính toán. doi: 10.18653/v1/P17-1141. URL https://aclanthology.org/P17-1141.


Jan-Christoph Kalo và Leandra Fichtel. Kamel: Phân tích kiến thức với các thực thể đa mã thông báo trong mô hình ngôn ngữ. Xây dựng cơ sở kiến thức tự động, 2022.


Li Li, Wu Chou, Wei Zhou và Min Luo. Các mẫu thiết kế và khả năng mở rộng của api còn lại cho các ứng dụng mạng. Giao dịch của IEEE về Quản lý Dịch vụ và Mạng, 13(1):154–167, 2016.


Ximing Lu, Peter West, Rowan Zellers, Ronan Le Bras, Chandra Bhagavatula và Yejin Choi. Giải mã thần kinh:(un) việc tạo văn bản thần kinh được giám sát với các ràng buộc logic vị ngữ. Trong Kỷ yếu Hội nghị năm 2021 của Chi hội Bắc Mỹ của Hiệp hội Ngôn ngữ học Tính toán: Công nghệ Ngôn ngữ Con người, trang 4288–4299, 2021.


Ximing Lu, Sean Welleck, Peter West, Liwei Jiang, Jungo Kasai, Daniel Khashabi, Ronan Le Bras, Lianhui Qin, Youngjae Yu, Rowan Zellers, và những người khác. Giải mã thần kinh a* esque: Tạo văn bản bị hạn chế với phương pháp phỏng đoán nhìn về phía trước. Trong Kỷ yếu Hội nghị năm 2022 của Chi hội Bắc Mỹ của Hiệp hội Ngôn ngữ học Tính toán: Công nghệ Ngôn ngữ Con người, trang 780–799, 2022.


Gregoire Mialon, Roberto Dess `` ı, Maria Lomeli, Christoforos Nalmpantis, Ram Pasunuru, Roberta Raileanu, Baptiste Roziere, Timo Schick, Jane Dwivedi-Yu, Asli Celikyilmaz, và những người khác. Các mô hình ngôn ngữ mở rộng: một cuộc khảo sát. bản in trước arXiv arXiv:2302.07842, 2023.


Ninh Miêu, Hác Châu, Lili Mou, Rui Yan và Lei Li. Cgmh: Tạo câu bị hạn chế bằng cách lấy mẫu đô thị. Trong Kỷ yếu của Hội nghị AAAI về Trí tuệ nhân tạo, tập 33, trang 6834–6842, 2019.


Reiichiro Nakano, Jacob Hilton, Suchir Balaji, Jeff Wu, Long Ouyang, Christina Kim, Christopher Hesse, Shantanu Jain, Vineet Kosaraju, William Saunders, và những người khác. Webgpt: Trả lời câu hỏi được hỗ trợ bởi trình duyệt với phản hồi của con người. bản in trước arXiv arXiv:2112.09332, 2021.


Long Ouyang, Jeffrey Wu, Xu Jiang, Diogo Almeida, Carroll Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, và những người khác. Đào tạo các mô hình ngôn ngữ để làm theo hướng dẫn với phản hồi của con người. Những tiến bộ trong hệ thống xử lý thông tin thần kinh, 35: 27730–27744, 2022.


Aaron Parisi, Yao Zhao và Noah Fiedel. Talm: Công cụ tăng cường mô hình ngôn ngữ. bản in trước arXiv arXiv:2205.12255, 2022.


Yujia Qin, Shihao Liang, Yining Ye, Kunlun Zhu, Lan Yan, Yaxi Lu, Yankai Lin, Xin Cong, Xiangru Tang, Bill Qian, et al. Toolllm: Hỗ trợ các mô hình ngôn ngữ lớn để thành thạo hơn 16000 api trong thế giới thực. bản in trước arXiv arXiv:2307.16789, 2023.


Pushpendre Rastogi, Ryan Cotterell và Jason Eisner. Trọng số chuyển đổi trạng thái hữu hạn với bối cảnh thần kinh. Trong Kỷ yếu hội nghị năm 2016 của chi nhánh Bắc Mỹ của Hiệp hội Ngôn ngữ học tính toán: công nghệ ngôn ngữ của con người, trang 623–633, 2016.


Timo Schick, Jane Dwivedi-Yu, Roberto Dess`ı, Roberta Raileanu, Maria Lomeli, Luke Zettlemoyer, Nicola Cancedda và Thomas Scialom. Toolformer: Các mô hình ngôn ngữ có thể tự dạy mình cách sử dụng các công cụ. bản in trước arXiv arXiv:2302.04761, 2023.


Yongliang Shen, Kaitao Song, Xu Tan, Dongsheng Li, Weiming Lu và Yueting Zhuang. Hugginggpt: Giải quyết nhiệm vụ ai với chatgpt và những người bạn của nó trong ôm mặt, 2023.


Yifan Song, Weimin Xiong, Dawei Zhu, Wenhao Wu, Han Qian, Mingbo Song, Hailiang Huang, Cheng Li, Ke Wang, Rong Yao, Ye Tian và Sujian Li. Restgpt: Kết nối các mô hình ngôn ngữ lớn với các API yên tĩnh trong thế giới thực, 2023.


Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothee' Lacroix, Baptiste Roziere, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Ar-`mand Joulin, Edouard Grave, và Guillaume Lample. Llama: Các mô hình ngôn ngữ nền tảng mở và hiệu quả, 2023.


Shunyu Yao, Jeffrey Zhao, Dian Yu, Nan Du, Izhak Shafran, Karthik Narasimhan và Yuan Cao. Phản ứng: Phối hợp lý luận và hành động trong các mô hình ngôn ngữ, 2023.


Lianmin Zheng, Wei-Lin Chiang, Ying Sheng, Siyuan Zhuang, Zhanghao Wu, Yonghao Zhuang, Zi Lin, Zhuohan Li, Da Cheng Li, Eric. P Xing, Hao Zhang, Joseph E. Gonzalez và Ion Stoica. Đánh giá llm-as-a-thẩm phán với đấu trường mt-bench và chatbot, 2023.


Bài viết này có sẵn trên arxiv theo giấy phép CC 4.0 DEED.