paint-brush
Использование без синтаксических ошибок и обобщения инструментов для программ LLM: выводы и ссылкик@textmodels

Использование без синтаксических ошибок и обобщения инструментов для программ LLM: выводы и ссылки

Слишком долго; Читать

Исследователи предлагают TOOLDEC, машинное декодирование с конечным числом состояний для LLM, уменьшающее количество ошибок и улучшающее использование инструментов.
featured image - Использование без синтаксических ошибок и обобщения инструментов для программ LLM: выводы и ссылки
Writings, Papers and Blogs on Text Models HackerNoon profile picture
0-item

Авторы:

(1) Кексун Чжан, Калифорнийский университет в Санта-Барбаре и равный вклад;

(2) Хунцяо Чен, Средняя школа Нортвуда и равный вклад;

(3) Лей Ли, Университет Карнеги-Меллон;

(4) Уильям Ян Ван, Калифорнийский университет, Санта-Барбара.

Таблица ссылок

6. ЗАКЛЮЧЕНИЕ

В этом документе представлен TOOLDEC, новый алгоритм декодирования, предназначенный для улучшения моделей большого языка (LLM) за счет интеграции внешних инструментов и обеспечения их вызова без синтаксических ошибок. TOOLDEC, управляемый конечным автоматом, созданным на основе документации инструментов и сигнатур API, точно представляет грамматику вызовов инструментов, решая распространенные проблемы, такие как ошибочные вызовы инструментов и плохое обобщение для невидимых инструментов в существующих моделях.


Эксперименты показывают, что TOOLDEC устраняет синтаксические ошибки, связанные с инструментом, повышает точность и экономит время вывода в различных тестах. Он также демонстрирует способность обобщать невидимые инструменты в нескольких областях без дополнительных данных для точной настройки. Достижения TOOLDEC открывают возможности для исследований в разработке более сложных моделей, адаптируемых к более широкому спектру инструментов и приложений без дополнительных обучающих данных, что приводит к созданию более универсальных и надежных LLM, способных решать более широкий спектр сложных проблем.


Успех TOOLDEC в устранении синтаксических ошибок может вдохновить исследования, направленные на семантическую точность и контекстную релевантность вызовов инструментов. Это может привести к созданию моделей, которые более эффективно задействуют, понимают и используют инструменты, расширяя общие возможности LLM по решению проблем.

ИСПОЛЬЗОВАННАЯ ЛИТЕРАТУРА

Питер Андерсон, Басура Фернандо, Марк Джонсон и Стивен Гулд. Управляемые субтитры к изображениям с открытым словарем и поиск по ограниченному лучу. В материалах конференции 2017 г. по эмпирическим методам обработки естественного языка, стр. 936–945, Копенгаген, Дания, сентябрь 2017 г. Ассоциация компьютерной лингвистики. дои: 10.18653/v1/D17-1098. URL https://aclanthology.org/D17-1098.


Себастьян Боржо, Артур Менш, Джордан Хоффманн, Тревор Кай, Элиза Резерфорд, Кэти Милликан, Джордж Б.М. Ван Ден Дриссе, Жан-Батист Леспио, Богдан Дамок, Эйдан Кларк и др. Улучшение языковых моделей путем извлечения из триллионов токенов. На Международной конференции по машинному обучению, стр. 2206–2240. ПМЛР, 2022.


Том Браун, Бенджамин Манн, Ник Райдер, Мелани Суббия, Джаред Д. Каплан, Прафулла Дхаривал, Арвинд Нилакантан, Пранав Шьям, Гириш Састри, Аманда Аскелл и др. Языковые модели учатся с небольшим количеством попыток. Достижения в области нейронных систем обработки информации, 33: 1877–1901, 2020.


Вэньху Чен, Сюэгуан Ма, Синьи Ван и Уильям В. Коэн. Программа наведения мыслей: Отделение вычислений от рассуждений для задач численного рассуждения. Электронные распечатки arXiv, стр. arXiv – 2211, 2022 г.


Джейсон Эйснер. Оценка параметров вероятностных преобразователей с конечным состоянием. В материалах 40-го ежегодного собрания Ассоциации компьютерной лингвистики, стр. 1–8, 2002 г.


Эдвард Фредкин. Попробуй память. Сообщения ACM, 3 (9): 490–499, 1960.


Лую Гао, Аман Мадаан, Шуян Чжоу, Ури Алон, Пэнфэй Лю, Имин Ян, Джейми Каллан и Грэм Нойбиг. Пал: Программно-управляемые языковые модели. На Международной конференции по машинному обучению, стр. 10764–10799. ПМЛР, 2023.


Танмай Гупта и Анируддха Кембхави. Визуальное программирование: Композиционное визуальное мышление без тренировки. ArXiv, abs/2211.11559, 2022.


Кельвин Гуу, Кентон Ли, Зора Тунг, Панупонг Пасупат и Мингвэй Чанг. Предварительное обучение поисковой расширенной языковой модели. На Международной конференции по машинному обучению, стр. 3929–3938. ПМЛР, 2020.


Шибо Хао, Тяньян Лю, Чжэнь Ван и Чжитин Ху. Toolkengpt: Дополнение замороженных языковых моделей массивными инструментами посредством встраивания инструментов. Препринт arXiv arXiv:2305.11554, 2023.


Крис Хокамп и Цюнь Лю. Лексически ограниченное декодирование для генерации последовательностей с использованием поиска по лучу сетки. В материалах 55-го ежегодного собрания Ассоциации компьютерной лингвистики (Том 1: Длинные статьи), стр. 1535–1546, Ванкувер, Канада, июль 2017 г. Ассоциация компьютерной лингвистики. дои: 10.18653/v1/P17-1141. URL https://aclanthology.org/P17-1141.


Ян-Кристоф Кало и Леандра Фихтель. Камель: Анализ знаний с использованием многотокенных сущностей в языковых моделях. Автоматизированное построение базы знаний, 2022.


Ли Ли, У Чоу, Вэй Чжоу и Мин Ло. Шаблоны проектирования и расширяемость rest API для сетевых приложений. Транзакции IEEE по управлению сетями и услугами, 13(1):154–167, 2016.


Симинг Лу, Питер Уэст, Роуэн Зеллерс, Ронан Ле Бра, Чандра Бхагаватула и Еджин Чой. Нейрологическое декодирование: (не) контролируемая генерация нейронного текста с логическими ограничениями предикатов. В материалах конференции Североамериканского отделения Ассоциации компьютерной лингвистики 2021 года: технологии человеческого языка, стр. 4288–4299, 2021.


Симинг Лу, Шон Веллек, Питер Уэст, Ливэй Цзян, Юнго Касаи, Даниэль Хашаби, Ронан Ле Бра, Ляньхуэй Цинь, Ёнджэ Ю, Роуэн Зеллерс и др. Нейрологическое декодирование в стиле a*: Ограниченная генерация текста с помощью эвристики прогнозирования. В материалах конференции Североамериканского отделения Ассоциации компьютерной лингвистики 2022 года: технологии человеческого языка, стр. 780–799, 2022.


Грегуар Миалон, Роберто Десс'и, Мария Ломели, Христофорос Налмпантис, Рам Пасунуру, Роберта Райляну, Батист Розьер, Тимо Шик, Джейн Двиведи-Ю, Асли Челикьилмаз и др. Дополненные языковые модели: обзор. Препринт arXiv arXiv:2302.07842, 2023.


Нин Мяо, Хао Чжоу, Лили Моу, Руй Янь и Лэй Ли. Cgmh: Ограниченное генерирование предложений с помощью выборки из мегаполиса-Гастингса. В материалах конференции AAAI по искусственному интеллекту, том 33, стр. 6834–6842, 2019 г.


Рейитиро Накано, Джейкоб Хилтон, Сушир Баладжи, Джефф Ву, Лонг Оуян, Кристина Ким, Кристофер Хессе, Шантану Джайн, Винит Косараджу, Уильям Сондерс и др. Webgpt: ответы на вопросы с помощью браузера и обратная связь с человеком. Препринт arXiv arXiv:2112.09332, 2021.


Лонг Оуян, Джеффри Ву, Сюй Цзян, Диого Алмейда, Кэрролл Уэйнрайт, Памела Мишкин, Чонг Чжан, Сандини Агарвал, Катарина Слама, Алекс Рэй и др. Обучение языковых моделей следованию инструкциям с обратной связью от человека. Достижения в области нейронных систем обработки информации, 35: 27730–27744, 2022.


Аарон Паризи, Яо Чжао и Ной Фидель. Тальм: Инструментальные расширенные языковые модели. Препринт arXiv arXiv:2205.12255, 2022.


Юйцзя Цинь, Шихао Лян, Инин Е, Куньлунь Чжу, Лань Ян, Яси Лу, Янкай Линь, Синь Цун, Сянру Тан, Билл Цянь и др. Toolllm: Содействие использованию больших языковых моделей для освоения более 16 000 реальных API. Препринт arXiv arXiv:2307.16789, 2023.


Пушпендре Растоги, Райан Коттерелл и Джейсон Эйснер. Взвешивание преобразований конечных состояний с нейронным контекстом. В материалах конференции 2016 года североамериканского отделения Ассоциации компьютерной лингвистики: технологии человеческого языка, стр. 623–633, 2016.


Тимо Шик, Джейн Двиведи-Ю, Роберто Десси, Роберта Райляну, Мария Ломели, Люк Зеттлмойер, Никола Канкедда и Томас Шиалом. Toolformer: Языковые модели могут сами обучаться использованию инструментов. Препринт arXiv arXiv:2302.04761, 2023.


Юнлян Шен, Кайтао Сун, Сюй Тан, Дуншэн Ли, Вэймин Лу и Юэтин Чжуан. Hugginggpt: Решение задач искусственного интеллекта с помощью чатгпта и его друзей, обнимающих лицо, 2023 г.


Сун Ифань, Вэйминь Сюн, Давэй Чжу, Вэньхао Ву, Хань Цянь, Минбо Сун, Хайлян Хуан, Чэн Ли, Кэ Ван, Жун Яо, Е Тянь и Суцзянь Ли. Restgpt: Соединение больших языковых моделей с реальными API restful, 2023 г.


Уго Туврон, Тибо Лавриль, Готье Изакар, Ксавье Мартине, Мари-Анн Лашо, Тимоти Лакруа, Батист Розьер, Наман Гойал, Эрик Хамбро, Фейсал Ажар, Орельен Родригес, Арман Жулен, Эдуард Грав и Гийом Лампле. Лама: открытые и эффективные модели базового языка, 2023 г.


Шуньюй Яо, Джеффри Чжао, Дянь Ю, Нань Ду, Ицхак Шафран, Картик Нарасимхан и Юань Цао. React: Синергия рассуждений и действий в языковых моделях, 2023.


Ляньминь Чжэн, Вэй-Линь Чан, Ин Шэн, Сиюань Чжуан, Чжанхао Ву, Юнхао Чжуан, Цзы Линь, Чжуохан Ли, Дачэн Ли, Эрик. П Син, Хао Чжан, Джозеф Э. Гонсалес и Ион Стойка. Судейское судейство в качестве судьи с помощью mt-bench и арены чат-бота, 2023 год.


Этот документ доступен на arxiv под лицензией CC 4.0 DEED.