paint-brush
Effektive Methoden zur Bekämpfung von Fake News: Zensur, Entlarvung und Prebunkingvon@editorialist
336 Lesungen
336 Lesungen

Effektive Methoden zur Bekämpfung von Fake News: Zensur, Entlarvung und Prebunking

von THE Tech Editorialist3m2024/06/14
Read on Terminal Reader

Zu lang; Lesen

Dieses Dokument unterteilt Methoden zur Bekämpfung von Falschinformationen in Zensur, Entlarvung, Prebunking und Identifizierung. Es konzentriert sich auf die Optimierung des Prebunkings mithilfe epidemischer Modelle, um sachliche Informationen zu liefern, bevor sich Falschinformationen verbreiten, und so Benutzerstörungen zu minimieren.
featured image - Effektive Methoden zur Bekämpfung von Fake News: Zensur, Entlarvung und Prebunking
THE Tech Editorialist HackerNoon profile picture
0-item

Autor:

(1) Yigit Ege Bayiz, Elektro- und Computertechnik, University of Texas at Austin, Texas, USA (E-Mail: [email protected]);

(2) Ufuk Topcu, Luft- und Raumfahrttechnik und Technische Mechanik, The University of Texas at Austin, Austin, Texas, USA (E-Mail: [email protected]).

Linktabelle

Zusammenfassung und Einleitung

Verwandte Arbeiten

Vorbemerkungen

Optimales Prebunking-Problem

Deterministische Basisrichtlinien

Zeitlich äquidistantes Prebunking

Numerische Ergebnisse

Schlussfolgerung und Referenzen

II. VERWANDTE ARBEITEN

A. Bekämpfung von Fehlinformationen

Wir klassifizieren Methoden zur Bekämpfung von Fehlinformationen in vier Kategorien: Zensur, Entlarvung, Vorabentlarvung und Identifizierung. Die ersten drei Kategorien zielen alle darauf ab, die Auswirkungen von Fehlinformationen zu verringern. Zensur bezieht sich auf jede Methode, die darauf abzielt, die Verbreitung von Fehlinformationen einzudämmen, indem versucht wird, die Verbreitung von Informationen im Netzwerk zu kontrollieren [7], [8]. Zensur ist auf sozialen Netzwerkplattformen üblich, wirft jedoch erhebliche Fragen im Zusammenhang mit der Meinungsfreiheit auf.


Beim Debunking geht es darum, Falschinformationen zu korrigieren, indem den Benutzern korrekte Informationen bereitgestellt werden, nachdem sich die Falschinformationen bereits verbreitet haben, während beim Prebunking die Bereitstellung korrekter Informationen vor der Verbreitung von Falschinformationen gemeint ist. Ein automatisiertes Beispiel für Debunking sind die zahlreichen automatisierten Methoden zur Faktenprüfung, die alle darauf abzielen, falsch informative Textinhalte zu entlarven [9], [10]. Das aktuelle Verständnis der Sozialpsychologie zeigt, dass Prebunking dem Debunking hinsichtlich seiner Wirksamkeit bei der Bekämpfung von Falschinformationen überlegen ist [4], [6], [11]. In diesem Artikel tragen wir zur Automatisierung von Prebunking bei, indem wir Algorithmen zur automatischen Optimierung der Übermittlungszeiten von Prebunks an die Benutzer einer Social-Networking-Plattform entwickeln.


Identifizierung bezieht sich auf jede Methode, die darauf abzielt, falsch informierende Inhalte in einem sozialen Netzwerk zu erkennen. Diese Modelle nutzen häufig Modelle zur Verarbeitung natürlicher Sprache [12], [13]. Del Vicario et al. [14] haben gezeigt, dass die Verbreitungseigenschaften von Falschinformationen eine Erkennung ermöglichen, ohne sich auf die Klassifizierung des Inhalts zu verlassen. Vor kurzem haben Shaar et al. [15] eine Methode vorgestellt, mit der bereits faktengeprüfte Behauptungen identifiziert werden können. In diesem Artikel verwenden wir die Falschinformationserkennung nicht direkt. Wir gehen jedoch davon aus, dass wir den Falschinformationsinhalt bereits kennen, sodass eine genaue Falschinformationserkennung eine Voraussetzung für die von uns vorgestellten Methoden bleibt.

B. Modelle zur Gerüchteverbreitung

Um den optimalen Zeitpunkt für das Vorenthalten von Nachrichten zu bestimmen, sind genaue Schätzungen erforderlich, wann die Falschinformation den betreffenden Benutzer erreichen wird. Diese Schätzung erfordert ein Modell zur Gerüchteverbreitung. In diesem Artikel stützen wir uns bei der Modellierung der Verbreitung von Falschinformationen stark auf Epidemiemodelle [16], auch als Kompartimentmodelle bekannt. Wie der Name schon sagt, basieren diese Modelle auf der Epidemiologie und modellieren die Verbreitung von Gerüchten, indem sie Benutzer in unterschiedliche Kategorien wie anfällig oder infiziert einteilen und dann Regeln definieren, nach denen diese Unterteilungen im Laufe der Zeit interagieren. Es gibt eine breite Palette von Epidemiemodellen, die bei der Modellierung von Falschinformationen verwendet werden [17]. Die am häufigsten vorkommenden Modelle sind SI- [18], SIR- [19], [20], SIS- [21], [22]. SI-Modelle (anfällig-infiziert) sind einfach zu modellieren und häufig die einzigen Modelle, die eine Analyse mit beliebigen Graphenmodellen ermöglichen. SIR (susceptible-infected-recovered) und SIS (susceptible-infected-susceptible) verfeinern das SI-Modell und machen es präziser, ohne die Rechenkomplexität der Simulationen wesentlich zu erhöhen. Trotz dieser Verfeinerungen wird die SI-Verbreitung aufgrund ihrer Einfachheit und ihres Verhaltens, das mit SIS- und SIR-Modellen für die Anfangsphase der Verbreitung von Fehlinformationen vergleichbar ist, die die kritischste Phase zur Bekämpfung von Fehlinformationen ist, immer noch verwendet. In diesem Dokument verwenden wir ein SI-Modell, um die Verbreitung von Fehlinformationen abzuschätzen.