paint-brush
Métodos eficaces para combatir las noticias falsas: censura, desacreditación y desacreditaciónpor@editorialist
227 lecturas

Métodos eficaces para combatir las noticias falsas: censura, desacreditación y desacreditación

por Editorialist3m2024/06/14
Read on Terminal Reader

Demasiado Largo; Para Leer

Este artículo clasifica los métodos para contrarrestar la desinformación en censura, desacreditación, desacreditación e identificación. Se centra en optimizar el prebunking utilizando modelos epidémicos para entregar información factual antes de que se propague información errónea, minimizando las interrupciones para los usuarios.
featured image - Métodos eficaces para combatir las noticias falsas: censura, desacreditación y desacreditación
Editorialist HackerNoon profile picture
0-item

Autor:

(1) Yigit Ege Bayiz, Ingeniería Eléctrica e Informática de la Universidad de Texas en Austin Austin, Texas, EE. UU. (Correo electrónico: [email protected]);

(2) Ufuk Topcu, Ingeniería Aeroespacial e Ingeniería Mecánica de la Universidad de Texas en Austin Austin, Texas, EE. UU. (Correo electrónico: [email protected]).

Tabla de enlaces

Resumen e introducción

Obras relacionadas

Preliminares

Problema de pre-bunking óptimo

Políticas de referencia deterministas

Prebunking temporalmente equidistante

Los resultados numéricos

Conclusión y referencias

II. OBRAS RELACIONADAS

A. Contrarrestar la desinformación

Clasificamos los métodos para contrarrestar la desinformación en cuatro categorías: censura, desacreditación, desacreditación e identificación. Las tres primeras categorías intentan reducir el impacto de la información errónea. La censura se refiere a cualquier método que tenga como objetivo frenar la difusión de información errónea intentando controlar la propagación de la información en la red [7], [8]. La censura es común en las plataformas de redes sociales, pero plantea importantes cuestiones relacionadas con la libertad de expresión.


Desmentir se refiere a corregir la información errónea proporcionando a los usuarios información correcta después de que la información errónea ya se haya difundido, mientras que predesmentir se refiere a emitir información correcta antes de que se propague la información errónea. Un ejemplo automatizado de desacreditación son los numerosos métodos automatizados de verificación de hechos que tienen como objetivo desacreditar el contenido de texto desinformativo [9], [10]. La comprensión actual de la psicología social indica que la desacreditación previa es superior a la desacreditación en términos de su eficacia para contrarrestar la información errónea [4], [6], [11]. En este artículo, contribuimos a la automatización del prebunk mediante el desarrollo de algoritmos para optimizar automáticamente los tiempos de entrega de prebunk a los usuarios en una plataforma de redes sociales.


La identificación se refiere a cualquier método que tenga como objetivo detectar contenido desinformativo dentro de una red social. Estos modelos suelen utilizar modelos de procesamiento del lenguaje natural [12], [13]. Del Vicario et al. [14] ha demostrado que las características de propagación de la información errónea admiten su detección sin depender de la clasificación del contenido. Más recientemente, Shaar et al. [15] introducen un método con el que identificar afirmaciones ya verificadas. En este artículo no utilizamos la detección de información errónea directamente. Sin embargo, asumimos que ya conocemos el contenido de la información errónea, por lo que la detección precisa de la información errónea sigue siendo un requisito previo para los métodos que presentamos.

B. Modelos de propagación de rumores

Determinar los tiempos óptimos para las entregas previas al bunkering requiere estimaciones precisas de cuándo llegará la información errónea al usuario de interés. Esta estimación requiere un modelo de propagación de rumores. En este artículo, nos basamos en gran medida en modelos epidémicos [16], también conocidos como modelos compartimentales, para modelar la propagación de información errónea. Como sugiere su nombre, estos modelos se basan en la epidemiología y modelan la propagación de rumores dividiendo a los usuarios en diferentes categorías, como susceptibles o infectados, y luego definen reglas mediante las cuales estas particiones interactúan a lo largo del tiempo. Existe una amplia gama de modelos epidémicos que se utilizan en la modelización de información errónea [17]. La mayoría de ellos son los modelos SI [18], SIR [19], [20], SIS [21], [22]. Los modelos SI (susceptibles-infectados) son fáciles de modelar y, a menudo, son los únicos modelos que permiten el análisis con modelos gráficos arbitrarios. SIR (susceptible-infectado-recuperado) y SIS (susceptible-infectado-susceptible) refinan el modelo SI, haciéndolo más preciso sin introducir una complejidad computacional significativa en las simulaciones. A pesar de estos refinamientos, la propagación SI todavía encuentra uso debido a su simplicidad y a que tiene un comportamiento comparable a los modelos SIS y SIR para la fase inicial de propagación de información errónea, que es la fase más crítica para contrarrestar la información errónea. A lo largo de este artículo, utilizamos un modelo SI para estimar la propagación de información errónea.


Este documento está disponible en arxiv bajo licencia CC 4.0.