paint-brush
Polarite Minimizasyon Kaybı ile Çerçeveleme Önyargısını Azaltma: Deneylerile@mediabias
4,243 okumalar
4,243 okumalar

Polarite Minimizasyon Kaybı ile Çerçeveleme Önyargısını Azaltma: Deneyler

Çok uzun; Okumak

Bu makalede araştırmacılar, siyasi kutuplaşmanın temel etkenlerinden biri olan medyadaki çerçeveleme önyargısını ele alıyor. Raporlamadaki kutupsallık farklılıklarını en aza indirmek ve önyargıyı etkili bir şekilde azaltmak için yeni bir kayıp fonksiyonu öneriyorlar.
featured image - Polarite Minimizasyon Kaybı ile Çerçeveleme Önyargısını Azaltma: Deneyler
Media Bias [Deeply Researched Academic Papers] HackerNoon profile picture
0-item

Bu makale arxiv'de CC BY-NC-SA 4.0 DEED lisansı altında mevcuttur.

Yazarlar:

(1) Yejin Bang, Yapay Zeka Araştırma Merkezi (CAiRE), Hong Kong Bilim ve Teknoloji Üniversitesi;

(2) Nayeon Lee, Yapay Zeka Araştırma Merkezi (CAiRE), Hong Kong Bilim ve Teknoloji Üniversitesi;

(3) Pascale Fung, Yapay Zeka Araştırma Merkezi (CAiRE), Hong Kong Bilim ve Teknoloji Üniversitesi.

Bağlantı Tablosu

4. Deneyler

4.1. Kurmak


4.2. Modeller

Temel Çizgiler Çoklu haber veri seti (Fabbri ve diğerleri, 2019) (BARTMULTI (Lewis ve diğerleri, 2019) ve PEGASUSMULTI (Zhang ve diğerleri, 2019a)) üzerinde eğitilmiş kullanıma hazır çoklu belge özetleme (MDS) modelleriyle karşılaştırıyoruz. temel olarak. Bu modeller, polarize makalelerin özetlenmesinde de uygulanabilecek MDS'de yüksek performans elde etmiştir. Ancak bu modellerin çerçeveleme yanlılığını ortadan kaldırma veya tarafsız yazma konusunda herhangi bir öğrenmesi yoktur. Ayrıca ALLSIDES veri kümesiyle ince ayar yapılan son teknoloji modellerle (BARTNEUSFT ve BARTNEUSFT-T) (Lee ve diğerleri, 2022) karşılaştırıyoruz. BARTNEUSFT yalnızca makaleler için ince ayarlara sahiptir, bu arada BARTNEUSFT-T ayrıca her makalenin başlığından da yararlanır. Ayrıca PEGASUSNEUSFT'yi de rapor ediyoruz. Basitçe ince ayar yapmak, çerçeveleme yanlılığını öğrenmek için yeterince etkili olmayabilir. Böylece, polarite minimizasyon kaybının, temel ve SOTA modellerine kıyasla çerçeveleme yanlılığını nasıl etkili bir şekilde azaltabildiğini göstereceğiz.





4.3. Sonuçlar



Aşırı kutuplarla etkili öğrenme Uç uçlar (sol, sağ) arasındaki kutuplaşmanın en aza indirilmesinin, merkez medya çıkışıyla karışımdan daha etkili olduğunu araştırıyoruz. Bunun nedeni, sol ve sağ ideolojilerin, merkez medyanın tamamen önyargısız olmamasına rağmen, modelleri aşırı uçlar konusunda merkez medya kuruluşlarına göre daha etkili bir şekilde eğitebilen karşıt uçlar olmasıdır. Niteliksel analiz sonuçları niceliksel ölçümlerle uyumludur. Örneğin, Tablo 2'de gösterildiği gibi, polaritesi en aza indirilmiş LR-INFO ve LRC-Arousal modellerinin her ikisi de, polarize girdi makalelerinden elde edilen temel bilgilerle özetlenebilir. Özellikle en düşük önyargılı model olan LR-INFO, daha tarafsız bir kelime seçimi bile kullanabilir (örneğin, Y hedefiyle aynı "isyanlar" yerine "protestolar").


4.4. Analiz


Tablo 3: Ablasyon çalışması: LR-INFO modeliyle yalnızca tek yönlü polarite minimizasyonuna sahip olmanın etkisi.