paint-brush
Потолок согласования: объективное несоответствие в обучении с подкреплением на основе обратной связи с человекомк@feedbackloop
369 чтения
369 чтения

Потолок согласования: объективное несоответствие в обучении с подкреплением на основе обратной связи с человеком

Слишком долго; Читать

Узнайте о проблемах несоответствия целей в RLHF для больших языковых моделей, влияющих на согласованность между моделями вознаграждения и производительностью последующих этапов. В этой статье исследуются истоки, проявления и потенциальные решения этой проблемы, объединяя идеи из литературы по НЛП и RL. Получите представление о внедрении более эффективных методов RLHF для более эффективных и ориентированных на пользователя языковых моделей.
featured image - Потолок согласования: объективное несоответствие в обучении с подкреплением на основе обратной связи с человеком
The FeedbackLoop: #1 in PM Education HackerNoon profile picture

Авторы:

(1) Натан Ламберт, Институт искусственного интеллекта Аллена;

(2) Роберто Каландра, Технический университет Дрездена.

Таблица ссылок

Аннотация и введение

Связанных с работой

Фон

Понимание несоответствия целей

Обсуждения

Заключение

Благодарности и ссылки

АБСТРАКТНЫЙ

Обучение с подкреплением на основе обратной связи с человеком (RLHF) стало мощным методом, позволяющим сделать большие языковые модели (LLM) более простыми в использовании и более эффективными в сложных условиях. По своей сути RLHF предоставляет новый набор инструментов для оптимизации LLM, помимо прогнозирования следующего токена, что позволяет интегрировать качественные цели обучения. Попытка сопоставления между предпочтениями пользователя и производительностью последующих этапов, которая происходит в модели изученного вознаграждения, приводит к созданию среды оптимизации, в которой метрики обучения и оценки могут оказаться коррелирующими. Очевидная корреляция может привести к неожиданному поведению и историям о «слишком большом количестве RLHF». В RLHF проблемы возникают из-за того, что следующие подмодули не согласуются друг с другом: обучение модели вознаграждения, обучение модели политики и оценка модели политики. Это несоответствие приводит к тому, что модели иногда избегают запросов пользователей с помощью ложных флажков безопасности, их трудно направить на заданные характеристики или они всегда отвечают в определенном стиле. Поскольку оценка модели чата становится все более детализированной, зависимость от предполагаемой связи между оценкой модели вознаграждения и производительностью последующего процесса приводит к проблеме объективного несоответствия. В этой статье мы иллюстрируем причину этой проблемы, просматривая соответствующую литературу по обучению с подкреплением на основе моделей, и обсуждаем соответствующие решения, чтобы стимулировать дальнейшие исследования. Устранив несоответствие целей в RLHF, LLM будущего будут более точно соответствовать инструкциям пользователя с точки зрения безопасности и полезности.

1. Введение

Обучение с подкреплением на основе обратной связи с человеком (RLHF) — мощный инструмент для интеграции качественных стилей и ценностей в большие модели машинного обучения (Bai et al., 2022; Christiano et al., 2017; Ouyang et al., 2022). RLHF стал популяризирован благодаря его использованию для интеграции человеческих ценностей в большие языковые модели (LLM) для согласования инструментов чата (Шульман, Зоф, Ким и другие, 2022). При этом RLHF стала важным методом в процессе улучшения моделей, лучше отвечающих на запросы пользователей, часто называемых «настраиваемыми инструкциями», «управляемостью», «чат-моделями» и т. д. Методы RLHF обычно работают в двухэтапном процессе после При обучении модели базового языка сначала они изучают модель человеческих предпочтений, которая действует как функция вознаграждения, а затем используют эту модель в цикле оптимизации обучения с подкреплением (RL). В процессе RLHF эти два шага часто выполняются независимо, при этом точная модель вознаграждения обучается на данных о предпочтениях человека, а затем используется оптимизатор RL для извлечения максимальной информации в модель чата. Общей проблемой современных LLM, обучающихся с помощью RLHF, являются трудности с извлечением предполагаемого поведения из модели. Иногда модели отклоняют доброжелательные запросы по соображениям безопасности, а иногда им требуется умная быстрая настройка для достижения полной производительности.


В этой статье мы подробно описываем фундаментальную проблему современных схем обучения RLHF: проблему объективного несоответствия. В RLHF три важные части обучения численно разделены: разработка показателей оценки, обучение модели вознаграждения и обучение генерирующей модели. Это несоответствие между моделью вознаграждения и обучением RL показано на рис. 1, однако существуют и другие связи между целями оценки и моделированием человеческих ценностей. В частности, существует множество способов лучше согласовать обучение модели вознаграждения с литературой по количественной оценке предпочтений (Ламберт, Гилберт и Зик, 2023), и в практике RLHF необходимо решить фундаментальные проблемы оптимизации (Casper et al., 2023). ChatGPT, самая популярная модель, обученная с помощью RLHF, демонстрирует признаки этого ограничения через такие проблемы, как многословие, неуверенность в себе и отказ от вопросов, повторяющиеся фразы, хеджирование и многое другое (Шульман, 2023). Эти черты чрезмерной оптимизации являются результатом тонкой прокси-целевой проблемы, которую несоответствие целей обеспечивает основу для изучения и решения: модель вознаграждения приписывает избыточную ценность фразам, которые не приносят пользы пользователю, что и использует оптимизатор RL, например, флажки безопасности. С другой стороны, текущие схемы обучения не полностью соответствуют инструментам оценки, поскольку модели RLHF по-прежнему нуждаются в сложных методах подсказок, таких как «думать шаг за шагом» (J. Wei et al., 2022) или «сделать глубокий вдох». (Янг и др., 2023) для достижения максимальной производительности. Решение проблемы несоответствия целей устранит необходимость в этих передовых методах и снизит вероятность отказа в получении LLM за пределами объема работ.


Рисунок 1: Иллюстрация того, где возникает проблема несоответствия целей на этапе оптимизации RL в RLHF. Несоответствие возникает, когда предполагается, что оценка из модели вознаграждения коррелирует с другими последующими оценками.


Фраза «несоответствие целей» возникла из обучения с подкреплением на основе моделей (MBRL), когда агент итеративно изучает динамическую модель, которую он позже использует для решения задачи управления (Ламберт, Амос, Ядан и Каландра, 2020; Р. Вэй, Ламберт, Макдональд, Гарсия и Каландра, 2023). В этом контексте несоответствие заключается в изучении точной динамической модели, а не модели, оптимизированной для высокого вознаграждения за выполнение задания. В RLHF проблема аналогична, но с дополнительной сложностью, поскольку модель вознаграждения оптимизирована для данных о предпочтениях, а не для закрытого распределения, которое не соответствует конечным пользователям. Во-вторых, задача создания открытого языка менее специфична для понятия вознаграждения, чем задача политики контроля RL. По этим причинам, как мы исследуем в этой статье, проблема объективного несоответствия является более тонкой и важной для RLHF.


В этом позиционном документе мы вносим три вклада:


• Четко объяснить причины и потенциальные проявления объективного несоответствия в LLM, настроенных в чате,


• Объедините соответствующие работы из литературы по НЛП и RL вокруг несоответствия целей,


• Предложить направления исследований, чтобы устранить несоответствие и способствовать улучшению практики RLHF.


Этот документ доступен на arxiv под лицензией CC 4.0.