paint-brush
Использование без синтаксических ошибок и обобщенного инструмента для программ LLM: сопутствующие работык@textmodels

Использование без синтаксических ошибок и обобщенного инструмента для программ LLM: сопутствующие работы

Слишком долго; Читать

Исследователи предлагают TOOLDEC, машинное декодирование с конечным числом состояний для LLM, уменьшающее количество ошибок и улучшающее использование инструментов.
featured image - Использование без синтаксических ошибок и обобщенного инструмента для программ LLM: сопутствующие работы
Writings, Papers and Blogs on Text Models HackerNoon profile picture
0-item

Авторы:

(1) Кексун Чжан, Калифорнийский университет в Санта-Барбаре и равный вклад;

(2) Хунцяо Чен, Средняя школа Нортвуда и равный вклад;

(3) Лей Ли, Университет Карнеги-Меллон;

(4) Уильям Ян Ван, Калифорнийский университет, Санта-Барбара.

Таблица ссылок

2. СМЕЖНАЯ РАБОТА

Точная настройка языковых моделей для использования инструментов. Языковые модели можно настроить для использования инструментов с данными, которые содержат чередующийся текст и использование инструментов. Более ранние исследования заставляют языковые модели использовать один инструмент, такой как модуль поиска (Borgeaud et al., 2022; Guu et al., 2020) или поисковую систему (Nakano et al., 2021), путем тонкой настройки. Недавние достижения в области языковых моделей, дополненных инструментами, которые используют несколько инструментов (Schick et al., 2023; Parisi et al., 2022), также позволяют точно настроить языковые модели для использования таких инструментов, как модели контроля качества, модели перевода, калькуляторы и поисковые системы. ToolkenGPT (Hao et al., 2023) предлагает использовать несколько специальных токенов для представления инструментов и настраивает встраивание токенов только так, чтобы внедрение новых инструментов могло быть более эффективным. Однако подходы к точной настройке использования инструментов по-прежнему требуют новых данных и дополнительной точной настройки для адаптации модели к новым инструментам. Мы перечисляем различия между декодированием с конечным состоянием и двумя предыдущими парадигмами в таблице 1.


Контекстное обучение использованию инструментов. Языковые модели могут учиться на контекстных примерах (Brown et al., 2020) и следовать инструкциям (Ouyang et al., 2022). Это дает возможность просто поместить описания инструментов в подсказку и попросить языковые модели использовать их. В недавних работах эта возможность использовалась для использования нейронных моделей (Shen et al., 2023), RESTful API (Qin et al., 2023; Song et al., 2023), программных интерпретаторов (Chen et al., 2022; Gao et al. ., 2023) и множество других инструментов для решения проблем. Контекстное обучение не требует дополнительной настройки модели для использования новых инструментов. Однако описание и документация новых инструментов по-прежнему должны быть в командной строке, что увеличивает стоимость вычислений и ограничивает контекстный бюджет модели, позволяющий ей фактически рассуждать о задаче.


Ограниченное декодирование и конечные автоматы. Предыдущие методы декодирования с ограничениями в основном фокусировались на лексических ограничениях (Anderson et al., 2017). Они уменьшают большое пространство поиска лексически ограниченного декодирования с помощью конечных автоматов (Anderson et al., 2017), группируют похожих кандидатов (Hokamp & Liu, 2017) и улучшают алгоритмы поиска (Miao et al., 2019; Lu et др., 2021; Однако лексические ограничения недостаточно выразительны, чтобы регулировать вызовы инструментов. В то время как конечные автоматы должны быть взвешенными и вероятностными, чтобы справляться с мягкими ограничениями естественного языка (Eisner, 2002; Rastogi et al., 2016), ограничения для синтаксических вызовов инструментов являются жесткими ограничениями, которые намного проще для конечных автоматов. Поэтому мы предлагаем TOOLDEC для удовлетворения синтаксических ограничений допустимого вызова инструмента.


Этот документ доступен на arxiv под лицензией CC 4.0 DEED.