Cet article est disponible sur arxiv sous licence CC BY-NC-SA 4.0 DEED.
Auteurs:
(1) Yejin Bang, Centre de recherche sur l'intelligence artificielle (CAiRE), Université des sciences et technologies de Hong Kong ;
(2) Nayeon Lee, Centre de recherche sur l'intelligence artificielle (CAiRE), Université des sciences et technologies de Hong Kong ;
(3) Pascale Fung, Centre de recherche sur l'intelligence artificielle (CAiRE), Université des sciences et technologies de Hong Kong.
Nous comparons avec les modèles de synthèse multidocuments (MDS) prêts à l'emploi formés sur un ensemble de données multi-actualités (Fabbri et al., 2019) (BARTMULTI (Lewis et al., 2019) et PEGASUSMULTI (Zhang et al., 2019a)) comme lignes de base. Ces modèles ont atteint des performances élevées en MDS, qui peuvent également être appliquées à la synthèse d'articles polarisés. Cependant, ces modèles n’apportent aucun apprentissage sur la suppression des biais de cadrage ou sur l’écriture neutre. Nous comparons également avec les modèles de pointe (BARTNEUSFT et BARTNEUSFT-T) (Lee et al., 2022) qui sont affinés avec l'ensemble de données ALLSIDES. BARTNEUSFT est affiné uniquement avec les articles, tandis que BARTNEUSFT-T exploite également les titres de chaque article. Nous rapportons également PEGASUSNEUSFT. Un simple réglage fin peut ne pas être suffisamment efficace pour en apprendre davantage sur les biais de cadrage. Ainsi, nous démontrerons comment la perte de minimisation de polarité peut atténuer efficacement le biais de cadrage par rapport aux modèles de base et SOTA.
Apprentissage efficace avec des polarités extrêmes Nous étudions que la minimisation de la polarité entre les extrémités (gauche, droite) est plus efficace que le mélange avec une prise multimédia centrale. En effet, les idéologies de gauche et de droite sont aux extrémités opposées et peuvent former les modèles plus efficacement aux extrêmes que les médias centraux, même si les médias centraux ne sont pas totalement exempts de préjugés. Les résultats de l’analyse qualitative s’alignent sur les mesures quantitatives. Par exemple, comme illustré dans le tableau 2, les modèles LR-INFO et LRC-AROUSAL à polarité minimisée pourraient tous deux résumer les informations essentielles provenant d'articles d'entrée polarisés. Surtout LR-INFO, le modèle le moins biaisé, pourrait même utiliser un choix de mot plus neutre (par exemple, « manifestations » au lieu de « émeutes », comme pour cibler Y).