该论文可在 arxiv 上根据 CC BY-NC-SA 4.0 DEED 许可获取。
作者:
(1)Yejin Bang,香港科技大学人工智能研究中心(CAiRE);
(2) Nayeon Lee,香港科技大学人工智能研究中心(CAiRE);
(3)冯廷哲,香港科技大学人工智能研究中心(CAiRE)。
框架偏见框架偏见是媒体研究领域中一个有据可查的现象(Wright 和 Goodwin,2002;Entman,2002、2010、2007;Gentzkow 和 Shapiro,2006;Gentzkow 等,2015;Beratšová 等,2016)。根据 Gentzkow 和 Shapiro (2006) 的说法,框架偏见是指记者和媒体选择性地强调报道的某些方面,同时淡化或忽略其他方面(信息方面),并带有偏见地使用语言(词汇方面)。这可能导致公众对事件产生扭曲的看法,尤其是在框架是为了服务于特定议程或意识形态的情况下(Kahneman 和 Tversky,2013;Goffman,1974)。框架偏见的影响在政治领域尤为明显,媒体和政党经常发表两极分化的言论,以吸引各自的支持者(Scheufele,2000;Chong and Druckman,2007)。
自动缓解措施为了缓解这种情况,已经进行了各种自动媒体偏见缓解措施(Fan 等人,2019 年;Hamborg 等人,2019 年;Morstatter 等人,2018 年;Laban and Hearst,2017 年;Hamborg 等人,2017 年;Zhang 等人,2019b 年;van den Berg 和 Markert,2020 年;Lee 等人,2022 年)。类似的工作是意识形态预测(Liu 等人,2022 年)(如果它们是左倾、右倾还是中间倾)或立场预测(Baly 等人,2020 年)——即极性检测。另一方面,我们的工作重点是从极化文章生成神经文章。鉴于框架偏见通常发生得非常微妙,Morstatter 等人。 (2018)学习句子中的框架偏见模式并尝试自动检测它。另一种常见的缓解尝试是以自动方式显示多个观点(Hamborg 等人,2017;Park 等人,2009)。Lee 等人(2022)采取了进一步的措施,对极化文章进行了总结,以便在一个摘要中自动提供多个观点。我们的工作与以前研究的愿景一致,但我们专注于通过研究极性最小化损失来减轻框架偏见的更通用方法。