Этот документ доступен на arxiv под лицензией CC BY-NC-SA 4.0 DEED.
Авторы:
(1) Еджин Банг, Центр исследований искусственного интеллекта (CAiRE), Гонконгский университет науки и технологий;
(2) Наён Ли, Центр исследований искусственного интеллекта (CAiRE), Гонконгский университет науки и технологий;
(3) Паскаль Фунг, Центр исследований искусственного интеллекта (CAiRE), Гонконгский университет науки и технологий.
Базовые показатели Мы сравниваем со стандартными моделями многодокументного суммирования (MDS), обученными на наборе данных Multi-news (Fabbri et al., 2019) (BARTMULTI (Lewis et al., 2019) и PEGASUSMULTI (Zhang et al., 2019a)) в качестве базовых показателей. Эти модели достигли высокой производительности в MDS, что также можно применять при обобщении поляризованных статей. Однако в этих моделях нет никаких знаний об устранении предвзятости в рамке или нейтральном письме. Мы также сравниваем с моделями текущего состояния (BARTNEUSFT и BARTNEUSFT-T) (Lee et al., 2022), которые точно настроены с помощью набора данных ALLSIDES. BARTNEUSFT настраивается только для статей, тогда как BARTNEUSFT-T дополнительно использует заголовки каждой статьи. Дополнительно сообщаем PEGASUSNEUSFT. Простая точная настройка может быть недостаточно эффективной, чтобы узнать о смещении кадра. Таким образом, мы продемонстрируем, как минимизация потерь полярности может эффективно смягчить смещение кадрирования по сравнению с базовой моделью и моделями SOTA.
Эффективное обучение с крайними полярностями Мы выяснили, что минимизация полярности между крайними концами (левым и правым) более эффективна, чем сочетание с центральным СМИ. Это связано с тем, что левая и правая идеологии являются противоположными сторонами, которые могут более эффективно обучать модели крайним целям, чем центральные СМИ, хотя центральные СМИ не полностью свободны от предвзятости. Результаты качественного анализа соответствуют количественным показателям. Например, как показано в таблице 2, модели с минимизацией полярности LR-INFO и LRC-ARUSAL могут суммировать важную информацию из поляризованных входных статей. Особенно LR-INFO, модель с наименьшим уровнем предвзятости, она могла бы даже использовать более нейтральный выбор слов (например, «протесты» вместо «бунтов», как и для цели Y).