paint-brush
ध्रुवीयता न्यूनीकरण हानि के साथ फ़्रेमिंग पूर्वाग्रह को कम करना: प्रायोगिक विवरणद्वारा@mediabias
656 रीडिंग
656 रीडिंग

ध्रुवीयता न्यूनीकरण हानि के साथ फ़्रेमिंग पूर्वाग्रह को कम करना: प्रायोगिक विवरण

द्वारा Tech Media Bias [Research Publication]2m2024/05/18
Read on Terminal Reader

बहुत लंबा; पढ़ने के लिए

इस शोधपत्र में शोधकर्ताओं ने मीडिया में फ्रेमिंग पूर्वाग्रह को संबोधित किया है, जो राजनीतिक ध्रुवीकरण का एक प्रमुख कारण है। वे रिपोर्टिंग में ध्रुवीयता अंतर को कम करने के लिए एक नया हानि फ़ंक्शन प्रस्तावित करते हैं, जिससे पूर्वाग्रह को प्रभावी ढंग से कम किया जा सके।
featured image - ध्रुवीयता न्यूनीकरण हानि के साथ फ़्रेमिंग पूर्वाग्रह को कम करना: प्रायोगिक विवरण
Tech Media Bias [Research Publication] HackerNoon profile picture
0-item

यह पेपर arxiv पर CC BY-NC-SA 4.0 DEED लाइसेंस के अंतर्गत उपलब्ध है।

लेखक:

(1) येजिन बैंग, आर्टिफिशियल इंटेलिजेंस रिसर्च सेंटर (CAiRE), हांगकांग विज्ञान और प्रौद्योगिकी विश्वविद्यालय;

(2) नायेन ली, आर्टिफिशियल इंटेलिजेंस रिसर्च सेंटर (CAiRE), हांगकांग विज्ञान और प्रौद्योगिकी विश्वविद्यालय;

(3) पास्कल फंग, सेंटर फॉर आर्टिफिशियल इंटेलिजेंस रिसर्च (CAiRE), हांगकांग यूनिवर्सिटी ऑफ साइंस एंड टेक्नोलॉजी।

लिंक की तालिका

ए. प्रायोगिक विवरण


BERTSCORE-F1 मुख्य जानकारी का आकलन करने के लिए, हमने टोकन-एम्बेडिंग-आधारित मीट्रिक BERTSCORE-F1 को अपनाया। हमने (झांग* एट अल., 2020) द्वारा प्रदान किए गए पूर्व-प्रशिक्षित 'माइक्रोसॉफ्ट/डेबर्टा-एक्सलार्ज-एमएनएलआई' संस्करण को अत्याधुनिक चेकपॉइंट के रूप में इस्तेमाल किया।

A.1 मानवीय मूल्यांकन


हमने 30 यादृच्छिक रूप से चुने गए नमूनों के साथ मूल्यांकन किया। हम दो मॉडलों (यादृच्छिक क्रम में) से दो लेख प्रदान करते हैं, साथ ही मुद्दा वाक्य भी देते हैं जो बताता है कि लेख किस बारे में हैं। फिर, एनोटेटर से इस सवाल का जवाब देने के लिए कहा जाता है कि "कौन सा लेख अधिक पक्षपाती है?", स्पिंडे एट अल. (2021); ली एट अल. (2022) के अनुसार। हमें प्रत्येक नमूने के लिए तीन एनोटेशन मिलते हैं और बहुमत वाले मतदान का चयन करते हैं। चूंकि कई परीक्षण नमूने अमेरिकी राजनीति से निकटता से संबंधित हैं, इसलिए हमने मूल्यांकन में शामिल किसी भी राजनीतिक पूर्वाग्रह या व्यक्तिगत प्राथमिकता को कम करने के लिए तीन गैर -अमेरिकी नागरिकों/नागरिकों/निवासियों को भर्ती किया। तीनों एनोटेटर्स ने खुद को राजनीतिक झुकाव में उदारवादी बताया और वे अंग्रेजी में मूल्यांकन करने के लिए योग्य हैं (उन सभी ने अंग्रेजी में अपनी तृतीयक शिक्षा प्राप्त की है)।


यह सत्यापित करने के लिए कि जोड़ों में से कौन सा पक्षपाती है, उसका चयन यादृच्छिक नहीं है, मूल्यांकन परिणाम प्राप्त करने के बाद द्विपद परीक्षण किया जाता है। शून्य परिकल्पना थी "LR-INFO (हमारी प्रस्तावित विधि) से उत्पन्न लेखों का कम पक्षपाती होना यादृच्छिक है"। फिर, हमने 0.019 का p-मान प्राप्त किया, जिसने शून्य परिकल्पना (p < 0.05) को खारिज कर दिया। इसलिए, LR-INFO से उत्पन्न लेखों का कम पक्षपाती होना यादृच्छिक नहीं है।


जब मॉडल को पोलरिटी मिनिमाइजेशन लॉस के साथ प्रशिक्षित किया जाता है, तो यह पूर्वाग्रह पैदा करने वाली जानकारी को हटाना सीख सकता है जबकि BARTNEUSFT-T को नुकसान होता है। जैसा कि तालिका 4 में दर्शाया गया है, हमारा मॉडल LR-INFO "ट्रम्प द्वारा CPAC में बोलने के मुद्दे" के बारे में सारांश से पूर्वाग्रह पैदा करने वाली जानकारी "ट्रम्प से राष्ट्रपति जो बिडेन की आव्रजन नीतियों पर हमला करने की उम्मीद है" को हटा सकता है जबकि BARTNEUSFTT इसे हटाने में विफल रहा।


तालिका 4: मानव मूल्यांकन उदाहरण.



तालिका 5: प्रस्तावित ध्रुवीयता न्यूनीकरण हानि, LR-VALENCE, LRAROUSAL, LR-INFO, LRC-AROUSAL, LRC-INFO, भिन्न भार (λ) के साथ हमारे मॉडल के लिए प्रायोगिक परिणाम। फ़्रेमिंग बायस मीट्रिक के लिए, कम संख्या बेहतर है (↓)। अन्य स्कोर के लिए, उच्च संख्या बेहतर है (↑)। ध्रुवीयता न्यूनीकरण हानि (जो + से दर्शाए गए हैं) वाले हमारे मॉडल के परिणाम सर्वश्रेष्ठ λ के साथ रिपोर्ट किए गए हैं। λ का पूरा अन्वेषण परिशिष्ट और चित्र 2 में उपलब्ध है।