该论文可在 arxiv 上根据 CC BY-NC-SA 4.0 DEED 许可获取。
作者:
(1)Yejin Bang,香港科技大学人工智能研究中心(CAiRE);
(2) Nayeon Lee,香港科技大学人工智能研究中心(CAiRE);
(3)冯廷哲,香港科技大学人工智能研究中心(CAiRE)。
框架偏见通过扭曲对实际事件的看法,在加剧政治两极分化方面发挥着重要作用。持不同政治立场的媒体在报道同一事件时经常使用两极分化的语言。我们提出了一种新的损失函数,鼓励模型最小化两极化输入文章之间的极性差异,以减少框架偏见。具体来说,我们的损失旨在联合优化模型以双向映射极性端。我们的实验结果表明,与基于 BART 的多文档摘要模型相比,结合所提出的极性最小化损失可显着减少框架偏见。值得注意的是,我们发现,当模型被训练以最小化与信息框架偏见(即,要报告的信息选择有偏差)相关的极性损失时,这种方法的有效性最为明显。
框架偏见已成为现代媒体中普遍存在的问题,它通过歪曲信息和语言选择误导人们对真实情况的理解(Entman,2007 年、2010 年;Gentzkow 和 Shapiro,2006 年)。框架偏见最显著的影响是加剧了相互冲突的政党和媒体之间的对立。减轻框架偏见对于促进准确客观的信息传递至关重要。
一种有前途的缓解范例是通过合成来自有偏见的源文章的多个观点来生成新闻文章的中和版本(Sides,2018;Lee 等人,2022)。为了更有效地实现新闻中和,我们引入了极性最小化损失,利用归纳偏差鼓励模型优先生成极性差异最小的文章。我们提出的损失训练模型同时擅长将文章从极性谱的一端映射到另一端,反之亦然,如图 1 所示。直观地说,模型被迫学习并关注来自两个相反两端的对比极性之间的共同方面。
在这项工作中,我们通过最小化框架偏见的不同维度(词汇和信息)的极性(Entman,2002)来证明我们提出的损失函数的有效性。词汇极化是由于选择具有不同价态和唤醒度的词语来解释相同的信息(例如,“抗议”与“暴乱”)。信息极化是由于选择不同的信息来报道,通常包括与所报道问题相关的不必要或不相关的信息。我们的研究表明,学习信息维度上截然不同的相反极性可以使模型获得更好的能力来关注共同点并最大限度地减少极化输入文章中的偏见。最终,我们提出的损失可以消除引起偏见的信息并生成更中性的语言选择。