この論文は、CC BY-NC-SA 4.0 DEED ライセンスの下で arxiv で公開されています。
著者:
(1)香港科技大学人工知能研究センター(CAiRE)、イェジン・バン氏
(2)香港科技大学人工知能研究センター(CAiRE)のナヨン・リー氏
(3)香港科技大学人工知能研究センター(CAiRE)、パスカル・ファング氏
ベースライン ベースラインとして、マルチニュースデータセット (Fabbri et al., 2019) でトレーニングされた既製のマルチドキュメント要約 (MDS) モデル (BARTMULTI (Lewis et al., 2019) および PEGASUSMULTI (Zhang et al., 2019a)) と比較します。これらのモデルは MDS で高いパフォーマンスを達成しており、二極化した記事の要約にも適用できます。ただし、これらのモデルには、フレーミングバイアスの除去や中立的な書き込みに関する学習はありません。また、ALLSIDES データセットで微調整された最先端のモデル (BARTNEUSFT および BARTNEUSFT-T) (Lee et al., 2022) とも比較します。BARTNEUSFT は記事のみで微調整されますが、BARTNEUSFT-T は各記事のタイトルも活用します。PEGASUSNEUSFT についても報告します。単純な微調整だけでは、フレーミング バイアスを学習するのに十分ではない可能性があります。そこで、極性最小化損失がベースライン モデルや SOTA モデルと比較して、フレーミング バイアスを効果的に軽減する方法を説明します。
極端な極性による効果的な学習極端な端(左、右)間の極性の最小化は、中心メディアとの混合よりも効果的であることを調査しました。これは、中心メディアが完全に偏りがないわけではないものの、左翼と右翼のイデオロギーは、中心メディアよりも極端な端についてより効果的にモデルをトレーニングできる反対の端であるためです。定性分析の結果は、定量的な尺度と一致しています。たとえば、表2に示すように、極性が最小化されたモデルLR-INFOとLRC-AROUSALはどちらも、偏った入力記事から重要な情報を要約できます。特に、最も偏りの少ないモデルであるLR-INFOは、より中立的な単語の選択(たとえば、ターゲットYと同じ「暴動」ではなく「抗議」)を使用することもできます。