paint-brush
Méthodes efficaces pour lutter contre les fausses nouvelles : censure, démystification et pré-mystificationpar@editorialist
336 lectures
336 lectures

Méthodes efficaces pour lutter contre les fausses nouvelles : censure, démystification et pré-mystification

par THE Tech Editorialist3m2024/06/14
Read on Terminal Reader

Trop long; Pour lire

Cet article classe les méthodes de lutte contre la désinformation en censure, démystification, pré-mystification et identification. Il se concentre sur l’optimisation du pré-hébergement à l’aide de modèles épidémiques pour fournir des informations factuelles avant que la désinformation ne se propage, minimisant ainsi les perturbations des utilisateurs.
featured image - Méthodes efficaces pour lutter contre les fausses nouvelles : censure, démystification et pré-mystification
THE Tech Editorialist HackerNoon profile picture
0-item

Auteur:

(1) Yigit Ege Bayiz, Génie électrique et informatique, Université du Texas à Austin Austin, Texas, États-Unis (E-mail : [email protected]) ;

(2) Ufuk Topcu, Ingénierie aérospatiale et mécanique d'ingénierie, Université du Texas à Austin Austin, Texas, États-Unis (E-mail : [email protected]).

Tableau des liens

Résumé et introduction

Travaux connexes

Préliminaires

Problème de pré-groupage optimal

Politiques de base déterministes

Pré-groupage temporellement équidistant

Résultats numériques

Conclusion et références

II. TRAVAUX CONNEXES

A. Lutter contre la désinformation

Nous classons les méthodes de lutte contre la désinformation en quatre catégories : censure, démystification, pré-mystification et identification. Les trois premières catégories tentent toutes de réduire l'impact de la désinformation. La censure fait référence à toute méthode visant à freiner la propagation de la désinformation en tentant de contrôler la propagation de l'information dans le réseau [7], [8]. La censure est courante sur les plateformes de réseaux sociaux, mais elle soulève d’importants problèmes liés à la liberté d’expression.


Le démystification consiste à corriger la désinformation en fournissant aux utilisateurs des informations correctes après que la désinformation se soit déjà propagée, tandis que le pré-mystification consiste à fournir des informations correctes avant que la désinformation ne se propage. Un exemple automatisé de démystification est constitué par les nombreuses méthodes automatisées de vérification des faits qui visent toutes à démystifier le contenu textuel désinformatif [9], [10]. La compréhension actuelle de la psychologie sociale indique que le pré-mystification est supérieur au démystification en termes d’efficacité dans la lutte contre la désinformation [4], [6], [11]. Dans cet article, nous contribuons à l'automatisation du pré-bunking en développant des algorithmes pour optimiser automatiquement les délais de livraison des pré-bunks aux utilisateurs d'une plateforme de réseau social.


L'identification fait référence à toute méthode visant à détecter un contenu désinformatif au sein d'un réseau social. Ces modèles utilisent souvent des modèles de traitement du langage naturel [12], [13]. Del Vicario et coll. [14] a montré que les caractéristiques de propagation de la désinformation permettent une détection sans recourir à la classification du contenu. Plus récemment, Shaar et al. [15] introduisent une méthode permettant d'identifier les allégations déjà vérifiées. Dans cet article, nous n’utilisons pas directement la détection de fausses informations. Cependant, nous supposons que nous connaissons déjà le contenu de la désinformation. Une détection précise de la désinformation reste donc une condition préalable aux méthodes que nous présentons.

B. Modèles de propagation des rumeurs

Déterminer les délais optimaux pour les livraisons en pré-groupage nécessite des estimations précises du moment où les informations erronées parviendront à l'utilisateur concerné. Cette estimation nécessite un modèle de propagation des rumeurs. Dans cet article, nous nous appuyons largement sur des modèles épidémiques [16], également appelés modèles compartimentés, pour modéliser la propagation de la désinformation. Comme leur nom l'indique, ces modèles sont basés sur l'épidémiologie et modélisent la propagation des rumeurs en divisant les utilisateurs en différentes catégories, telles que sensibles ou infectés, puis définissent des règles selon lesquelles ces partitions interagissent au fil du temps. Il existe un large éventail de modèles épidémiques utilisés dans la modélisation de la désinformation [17]. Les plus courants sont les modèles SI [18], SIR [19], [20], SIS [21], [22]. Les modèles SI (sensibles-infectés) sont faciles à modéliser et sont souvent les seuls modèles permettant une analyse avec des modèles graphiques arbitraires. SIR (sensible-infecté-récupéré) et SIS (sensible-infecté-sensible) affinent le modèle SI, les rendant plus précis sans introduire de complexité informatique significative dans les simulations. Malgré ces améliorations, la propagation SI trouve toujours une utilité en raison de sa simplicité et de son comportement comparable aux modèles SIS et SIR pour la phase initiale de propagation de la désinformation, qui est la phase la plus critique pour contrer la désinformation. Tout au long de cet article, nous utilisons un modèle SI pour estimer la propagation de la désinformation.


Cet article est disponible sur arxiv sous licence CC 4.0.