Bu makale arxiv'de CC BY-NC-SA 4.0 DEED lisansı altında mevcuttur.
Yazarlar:
(1) Yejin Bang, Yapay Zeka Araştırma Merkezi (CAiRE), Hong Kong Bilim ve Teknoloji Üniversitesi;
(2) Nayeon Lee, Yapay Zeka Araştırma Merkezi (CAiRE), Hong Kong Bilim ve Teknoloji Üniversitesi;
(3) Pascale Fung, Yapay Zeka Araştırma Merkezi (CAiRE), Hong Kong Bilim ve Teknoloji Üniversitesi.
Temel Çizgiler Çoklu haber veri seti (Fabbri ve diğerleri, 2019) (BARTMULTI (Lewis ve diğerleri, 2019) ve PEGASUSMULTI (Zhang ve diğerleri, 2019a)) üzerinde eğitilmiş kullanıma hazır çoklu belge özetleme (MDS) modelleriyle karşılaştırıyoruz. temel olarak. Bu modeller, polarize makalelerin özetlenmesinde de uygulanabilecek MDS'de yüksek performans elde etmiştir. Ancak bu modellerin çerçeveleme yanlılığını ortadan kaldırma veya tarafsız yazma konusunda herhangi bir öğrenmesi yoktur. Ayrıca ALLSIDES veri kümesiyle ince ayar yapılan son teknoloji modellerle (BARTNEUSFT ve BARTNEUSFT-T) (Lee ve diğerleri, 2022) karşılaştırıyoruz. BARTNEUSFT yalnızca makaleler için ince ayarlara sahiptir, bu arada BARTNEUSFT-T ayrıca her makalenin başlığından da yararlanır. Ayrıca PEGASUSNEUSFT'yi de rapor ediyoruz. Basitçe ince ayar yapmak, çerçeveleme yanlılığını öğrenmek için yeterince etkili olmayabilir. Böylece, polarite minimizasyon kaybının, temel ve SOTA modellerine kıyasla çerçeveleme yanlılığını nasıl etkili bir şekilde azaltabildiğini göstereceğiz.
Aşırı kutuplarla etkili öğrenme Uç uçlar (sol, sağ) arasındaki kutuplaşmanın en aza indirilmesinin, merkez medya çıkışıyla karışımdan daha etkili olduğunu araştırıyoruz. Bunun nedeni, sol ve sağ ideolojilerin, merkez medyanın tamamen önyargısız olmamasına rağmen, modelleri aşırı uçlar konusunda merkez medya kuruluşlarına göre daha etkili bir şekilde eğitebilen karşıt uçlar olmasıdır. Niteliksel analiz sonuçları niceliksel ölçümlerle uyumludur. Örneğin, Tablo 2'de gösterildiği gibi, polaritesi en aza indirilmiş LR-INFO ve LRC-Arousal modellerinin her ikisi de, polarize girdi makalelerinden elde edilen temel bilgilerle özetlenebilir. Özellikle en düşük önyargılı model olan LR-INFO, daha tarafsız bir kelime seçimi bile kullanabilir (örneğin, Y hedefiyle aynı "isyanlar" yerine "protestolar").