paint-brush
Política en Redes Sociales: Bots, IDM y Moderación Descentralizadapor@nerv
10,300 lecturas
10,300 lecturas

Política en Redes Sociales: Bots, IDM y Moderación Descentralizada

Demasiado Largo; Para Leer

La pregunta no es si estamos hablando de política en Internet o no, sino si lo estamos haciendo de la manera correcta. La mayoría de los portales oficiales de la ciudad dependen en gran medida de plataformas de redes sociales "inseguras" como Facebook, Twitter, YouTube y Flickr para interactuar con el público. El problema con la mayoría de las plataformas de Internet es que cualquiera puede afirmar ser quien quiera y pocos son los mecanismos para verificar la identidad de la persona detrás de la computadora. En 2021, la invasión del capitolio por una turba enfurecida en los EE. UU. es otro ejemplo del poder de estas plataformas.

People Mentioned

Mention Thumbnail
Mention Thumbnail

Companies Mentioned

Mention Thumbnail
Mention Thumbnail

Coin Mentioned

Mention Thumbnail
featured image - Política en Redes Sociales: Bots, IDM y Moderación Descentralizada
Network Emergency Response Volunteers HackerNoon profile picture


Internet se ha convertido en el ágora[ 1 ] de los tiempos modernos. Donde antes la gente se reunía en geolocalizaciones físicas y específicas para discutir asuntos políticos y otras noticias, generalmente en una plaza central en el medio de la ciudad o en anfiteatros en la periferia, hoy lo hacemos en línea en plataformas de redes sociales.


La pregunta no es si estamos hablando de política en Internet o no (obviamente lo estamos haciendo), sino si lo estamos haciendo de la manera correcta. [ 2 ] La mayoría de los portales oficiales de la ciudad dependen en gran medida de plataformas de redes sociales "inseguras" como Facebook. , Twitter, YouTube y Flickr para interactuar con el público, y muy pocos incorporan herramientas de participación complejas como foros, salas de chat, votación electrónica, etc., que de otro modo podrían permitir una interacción más directa y consecuente.


.

Protesta multitudinaria en Túnez y cuna de la Primavera Árabe que culminó con el exilio del expresidente Zine El Abidine Ben Ali a Arabia Saudí. Nueve de cada diez tunecinos utilizaron Facebook para organizar las protestas.


La mayoría de las protestas masivas que estallaron desde principios de la década de 2010[ 3 ],[ 4 ], desde Hong Kong[ 5 ] hasta Argelia y el Líbano, desde disturbios en Portland, EE. UU., hasta protestas antigubernamentales por medidas covid en todo el mundo[ 6 ], todos fueron organizados en línea con computadoras portátiles y teléfonos inteligentes, inspirados en hashtags y coordinados a través de las redes sociales.


Las páginas de Facebook se crearon para concienciar sobre los crímenes cometidos contra la humanidad, como los relacionados con la brutalidad policial durante la Revolución egipcia, que culminó con la muerte de Khaled Mohamed Saeed o la muerte de George Floyd representado por el movimiento Black Lives Matter en EE. UU. . En 2021, la invasión del capitolio por una multitud enfurecida en los EE. UU. es otro ejemplo más del poder de estas plataformas.[ 7 ] En respuesta, muchas fueron las ocasiones en que las autoridades públicas bloquearon o interrumpieron temporalmente el acceso a las plataformas de redes sociales. Solo en 2018 hubo 128 apagones de Internet obligatorios documentados.


En 2021, el Capitolio de los Estados Unidos, donde se reúne el congreso nacional, fue invadido por una multitud enfurecida que cuestionó la legitimidad de los resultados electorales para las elecciones presidenciales. Antes del evento, hubo más de un millón de menciones de la invasión del capitolio en las redes sociales en plataformas de "tecnología alternativa" como el sitio agregador de noticias Patriots.win, la aplicación de chat Telegram y los sitios de microblog Gab y Parler.


El problema con la mayoría de las plataformas de Internet es que cualquiera puede afirmar ser quien quiera y existen pocos mecanismos para verificar la identidad de la persona detrás de la computadora. Podemos autonombrarnos ingresando un apodo y podemos crear tantas cuentas como queramos porque generalmente no hay nada que vincule una identidad digital a una persona real. Esto es bueno y malo. Por un lado, permite el libre flujo de información que, de otro modo, podría reprimirse más fácilmente. Por otro lado, si no existe un mecanismo de rendición de cuentas o trazabilidad, es decir, si los usuarios no pueden dar fe de la autenticidad de sus publicaciones, herramientas interesantes como la votación en línea dejan de estar disponibles y se fomenta la publicación de contenido dañino[ 8 ] porque en general hay sin sanciones


¿Qué sucede en un mundo sin identidad digital?


La web se oscurece, en cierto sentido.[ 9 ] Se convierte en un entorno con moderación débil. Esto no debería sorprender a nadie, después de todo, estamos hablando de Internet. Lo que puede ser una sorpresa es que las redes sociales como Facebook están clasificadas como altamente inseguras.


La prostitución es rampante en la plataforma.[ 10 ] Los bots[ 11 ] que difunden noticias falsas[ 12 ] también están fuera de control.[ 13 ] ¡Twitter no es diferente![ 14 ] Estos bots sociales pueden organizar conversaciones similares a las de los humanos y a menudo pasan desapercibidos para los usuarios menos atentos.[ 15 ] Su capacidad para influir en el comportamiento humano no debe subestimarse.


La investigación[ 16 ] muestra claramente que los bots representaron alrededor del 11 % de todos los tuits de odio analizados en conversaciones en línea sobre políticas controvertidas relacionadas con los conflictos entre Israel, Palestina y Yemen. ¡Pueden influir en nuestro pensamiento y definir narrativas![ 17 ],[18] Al mismo tiempo, tenemos más de un millón de usuarios que acceden a Facebook de forma completamente anónima.


[ 19 ] Todos estos puntos no deben considerarse críticas baratas. Es consensualmente difícil monitorear el contenido en Internet.[ 20 ] Pero es importante conocer estos hechos y las características que definen las plataformas que usamos. La afirmación no es que el contenido de Internet, en general, sea imposible de moderar. Podría ser.


[ 21 ] Sin embargo, la tarea es inmensamente difícil y, a menudo, requiere poderes y recursos estatales para ser efectiva, al menos bajo el paradigma actual. Los algoritmos de inteligencia artificial están mejorando día a día y pueden facilitar la tarea.[ 22 ],[ 23 ] Pero así como las técnicas de IA se vuelven más avanzadas, los bots también se vuelven mejores en la manipulación de humanos. Tiene que haber una mejor manera de estar en Internet.


Fuente: https://www.socialsamosa.com/2017/05/ukraine-russia-twitter-feud/


Otro trilema


Entonces, para aquellos que están adentrados en Web3, en algún momento u otro durante su incursión probablemente se hayan topado con el llamado trilema de la cadena de bloques, acuñado por el creador de Ethereum, que resume el problema fundamental de la cadena de bloques, la arquitectura subyacente de la Web3. como la necesidad de encontrar un equilibrio y conciliación entre tres conceptos aparentemente excluyentes entre sí: escalabilidad , seguridad, y descentralización .


Paralelo a este trilema quizás aceche otro de igual importancia, no relacionado con la arquitectura software-hardware subyacente, pero que trata de razonar la forma en que los humanos usamos internet y cómo podemos aprovecharlo sin caer en trampas. y trampas. Esencialmente impidiendo que la red mundial se convierta en el salvaje oeste mundial, los otros 'lemas' son moderación , identidad, y privacidad .


Creo que todos podemos estar de acuerdo en que necesitamos algún tipo de moderación de contenido en línea. Para lograr este fin, es necesario establecer alguna forma de identidad. Pero también queremos mantener un cierto nivel de seudónimo para cuando queremos publicar con un alias y no con un nombre real y para ello es necesario un tipo especial de identidad. Así como se propusieron la prueba de participación y la fragmentación como parte de la solución al trilema de la cadena de bloques, es de esperar que haya una solución para esta otra tríada.


Arrojando luz en la oscuridad


El término medio en el que se puede atribuir la responsabilidad a los usuarios y al mismo tiempo preservar su anonimato es este: la gestión adecuada de la identidad[ 24 ] (también conocida como IDM). La idea detrás de IDM es distinguir claramente entre la atestación de identidad desde el registro de la cuenta de usuario y la posterior autenticación (login) , con trucos criptográficos inteligentes y separación de roles entre las entidades participantes.


Las vulnerabilidades que surgen de implementaciones deficientes de IDM son un problema famoso y un mundo en sí mismo.[ 25 ] Dado que no esperamos que el lector sea un experto en seguridad cibernética, nos ahorraremos los detalles. Baste decir que sí, es posible tener IDM con ciberseguridad. Si se programa correctamente, permite a los usuarios navegar en entornos seguros siempre que una autoridad de confianza a cargo de administrar lo que la comunidad de ciberseguridad llama certificados digitales no esté corrupta (HTTPS es el ejemplo más conocido). De hecho, utilizamos este tipo de procedimiento en todas las instituciones públicas; ya sea que estemos hablando de la emisión de dinero FIAT, el conteo de votos durante las elecciones, la emisión de pasaportes de viaje y control fronterizo, etc…[ 26 ], siempre es necesario cierto nivel de control de identidad.


Es cierto que esta arquitectura depende del buen comportamiento de dichas instituciones de confianza y las brechas, aunque poco frecuentes, existen. Pero, de hecho, la tarea encomendada es bastante simple: dar fe de la autenticidad de una identidad mediante la publicación de un certificado sin revelar datos confidenciales innecesariamente .


Por supuesto, hay formas de mitigar las fallas en el diseño de estos mecanismos en entornos más descentralizados donde la confianza se comparte entre múltiples entidades. También hay otras ideas más exóticas en la cocina, como las que hacen uso de fiestas seudónimas, también conocidas como ceremonias de validación, junto con formas especiales de gamificación social. Discutiremos esta pregunta con más detalle en un artículo propio, ya que merece una mirada más profunda.


Dejando a un lado las cuestiones de confianza y los detalles sobre IDM... para comprender los vínculos entre la ciberpolítica, la votación en línea y la rendición de cuentas, o dicho de otro modo, entre la moderación, la identidad y la privacidad, puede ser útil aclarar algunas ideas sobre cómo el contenido suele presentarse y moderarse en las redes sociales convencionales; desde la prevención de la propagación y fomento de la violencia hasta la desinformación y la censura[ 27 ]; cómo surgen estos fenómenos y qué se puede hacer para mitigar el daño.


Evidentemente, cualquier plataforma diseñada para albergar debates políticos (es decir, cualquier plataforma donde la gente pueda discutir libremente) no debe depender de verificadores de hechos o cualquier otra forma de moderación que se delegue en entidades fuera de la propia comunidad, porque esto está condenado. al fracaso a largo plazo, por razones obvias ![ 28 ]


Una mejor estrategia podría ser empoderar a los usuarios de la comunidad para que se automoderen.[ 29 ],[ 30 ] La razón por la que debemos confiar en una autoridad para administrar la certificación de nuestras identidades pero no para moderar el contenido en línea debe establecerse claramente; en primer lugar, separa la identidad de la moderación que, de otro modo, implicaría demasiada concentración de poder si ambas estuvieran en manos de las mismas autoridades.


En segundo lugar, es más fácil monitorear una ficha de identidades, credenciales y alguna prueba de identidad como un certificado de nacimiento, que monitorear todo el contenido que se publica en línea todos los días. Por lo tanto, tiene sentido delegar un proceso y no el otro. Es interesante notar que la inteligencia colectiva de una comunidad suele ser más poderosa que la inteligencia del individuo,[ 31 ],[ 32 ] aunque esto debe tomarse con pinzas como lo es el comportamiento colectivo de las masas, como toda acción humana. , no es una ciencia exacta. Tal automoderación podría variar desde una simple función .ignorar hasta un complejo sistema de clasificación en el que las personas mejoran o degradan las publicaciones directamente.


Una petición en línea reciente enviada a las autoridades del Reino Unido pedía un entorno de redes sociales más seguro mediante la implementación precisa de la identidad digital de la que hemos estado hablando. La respuesta fue negativa de inmediato.[ 33 ] Supuestamente, proporcionar identidades digitales por medio de certificados digitales e implementarlos en plataformas de redes sociales, incluso si se combina con alias seudónimos, podría aumentar las vulnerabilidades de seguridad cibernética y ser supuestamente contraproducente.


Pero la alternativa; nuestro sistema actual, ¿es mejor como está de todos modos? Además, ¿puede esta renuencia de las instituciones públicas a proporcionar un servicio de identidad digital tener algún paralelo con la renuencia general a aceptar criptomonedas?[ 34 ] ¿Están nuestros funcionarios electos calificados y lo suficientemente honestos para decidir sobre asuntos tan técnicos?


¿El remordimiento del comprador?


Incluso más recientemente, se suspendió un trato de $44,000,000,000 precisamente por estos temas.[ 35 ] Elon Musk, el hombre más rico del mundo, ofreció 44 mil millones de dólares para comprar Twitter asumiendo que como máximo el 5% de su base de usuarios era falso (compuesto de bots o de usuarios con varias cuentas).


Sin embargo, el trato quedó en suspenso ya que el señor Elon estimó que el número real debería ser al menos un 20% o 4 veces mayor. Independientemente de la exactitud del número, este es un tema candente en el mundo de hoy y seguramente no desaparecerá hasta que se tomen posiciones claras sobre estos asuntos. No debemos esperar que todas las plataformas deban ser absolutamente ciberseguras en el contexto que hemos estado discutiendo. Incluso se desea que algunos en realidad no lo sean. Pero aquellos en los que las discusiones políticas se toman en serio deberían serlo.


Una publicación de la Comisión Europea comentando la situación del conflicto entre Ucrania y Rusia como se ve accediendo a www.pleroma.pt que es una instancia en portugués de un protocolo federado de ActivityPub, una herramienta Web3. En esta plataforma, no se utiliza una fuerte protección IDM.


Lo que me gustaría obtener del lector al final de este artículo es que comprenda que la política a través de herramientas digitales no es solo un sueño cibernético del futuro, sino que ya está sucediendo y la razón por la cual necesitamos con urgencia un ciberespacio más seguro. La seguridad aquí no significa mejores formas de mantener segura su contraseña. Va mucho más allá de eso. Significa, entre otras cosas, pedir a los usuarios que también sean moderadores. Significa confiar en terceros para emitir y proteger nuestras credenciales y para supervisar continuamente el comportamiento de estas autoridades. La alternativa a la creación de este entorno seguro son los bots y los verificadores de hechos que se hacen cargo de nuestro discurso político, lo que podría engañar al público con narrativas falsas.


Y eso, creo, no lo queremos seguro.


Escrito por @nerv



Enlaces a fuentes


[1] Entrada " Agora " en Wikipedia, https://en.wikipedia.org/wiki/Agora


[2] " Principios democráticos para una Internet abierta " de la iniciativa Internet abierta para la democracia, https://openinternet.global/themes/custom/startupgrowth/files/OpenInternetBooklet_english.pdf


[3] Entrada " Primavera árabe " en Wikipedia, https://en.wikipedia.org/wiki/Arab_Spring


[4] " Facebook y Twitter clave para los levantamientos de la Primavera Árabe: informe " de Carol Huang, The National, Emiratos Árabes Unidos, 2011, https://www.thenationalnews.com/uae/facebook-and-twitter-key-to-arab- levantamientos de primavera-informe-1.428773/


[5] " Protestas de Hong Kong 2019–2020 " entrada en Wikipedia, https://en.wikipedia.org/wiki/2019–2020_Hong_Kong_protests#Online_confrontations


[6] " Protestas contra las respuestas a la pandemia de COVID-19 " entrada en Wikipedia, https://en.wikipedia.org/wiki/Protests_against_responses_to_the_COVID-19_pandemic#Organisers_and_methods


[7] " Ataque al Capitolio de los Estados Unidos en 2021 " entrada en Wikipedia, https://en.wikipedia.org/wiki/2021_United_States_Capitol_attack#Planning


[8] " Estamos subestimando el papel de las redes sociales en los tiroteos masivos y es hora de cambiar " en TNW, 2019, https://thenextweb.com/news/were-underestimating-the-role-of-social- medios-en-tiroteos-masivos-y-su-hora-de-cambiar


[9] Entrada de la Dark Web en Wikipedia, https://en.wikipedia.org/wiki/Dark_web


[10] Entrada " Prostitución en Facebook " en Without Bullshitblog, 2021, https://withoutbullshit.com/blog/prostitution-on-facebook


[11] Entrada de Eugene Goostman en Wikipedia, https://en.wikipedia.org/wiki/Eugene_Goostman


[12] Entrada " Social bots: la tecnología detrás de las noticias falsas " en el sitio web de IONOS, 2018, https://www.ionos.com/digitalguide/online-marketing/social-media/social-bots/


[13] " Facebook ha cerrado 5400 millones de cuentas falsas este año " por Brian Fung y Ahiza Garcia, CNN Business, 2019, https://edition.cnn.com/2019/11/13/tech/facebook-fake-accounts /index.html


[14] " 5 cosas que debe saber sobre los bots en Twitter " por Stefan Wojcik para Pew Research Center, EE. UU., 2018, https://www.pewresearch.org/fact-tank/2018/04/09/5-things-to -saber-sobre-bots-en-twitter/


[15] " Entrevista con Eugene Goostman, el niño falso que pasó la prueba de Turing " por Doug Aamoth para Time, 2014, https://time.com/2847900/eugene-goostman-turing-test/


[16] "¿ Personas odiosas o bots odiosos? Detección y caracterización de bots que propagan el odio religioso en las redes sociales árabes " por Nuha Albadi et al., Universidad de Colorado Boulder, EE. UU., 2019, https://arxiv.org/pdf/1908.00153 .pdf


[17] " Bots, redes sociales y política en Brasil " por Diretoria de Análise de Políticas Públicas, 2017, http://dapp.fgv.br/wp-content/uploads/2017/08/EN_bots-social-networks-politics -brasil-web.pdf


[18] " Cómo los bots están influyendo en la política y la sociedad " en la Fundación Thomson Reuters, YouTube, 2020, https://www.youtube.com/watch?v=Xl0TrA8oXXo


[19] " Un millón de personas ahora acceden a Facebook a través de Tor todos los meses " por Kavvitaa S. Iyer en Techworm, 2016, https://www.techworm.net/2016/04/million-people-now-access-facebook-tor -cada-mes.html


[20] " The Trauma Floor: Las vidas secretas de los moderadores de Facebook en Estados Unidos " por Casey Newton en The Verge, 2019, https://www.theverge.com/2019/2/25/18229714/cognizant-facebook-content- moderador-entrevistas-trauma-condiciones-de-trabajo-arizona


[21] " La policía realiza 61 arrestos en represión global contra la web oscura " por Warwick Ashford en TechTarget, 2019, https://www.computerweekly.com/news/252460271/Police-make-61-arrests-in-global-crackdown -en-la-web-oscura


[22] " Pornografía: lo reconoces cuando lo ves, pero ¿puede una computadora? " de Bijan Stephen en The Verge, 2019, https://www.theverge.com/2019/1/30/18202474/tumblr-porn -ai-desnudez-inteligencia-artificial-aprendizaje-máquina


[23] " Detección de violencia mediante funciones espaciotemporales con red neuronal convolucional 3D " por Fath U Min Ullah et al., Universidad de Sejong, Seúl, República de Corea, 2019, https://mdpi-res.com/d_attachment/sensors/sensors -19-02472/article_deploy/sensores-19-02472.pdf


[24] Entrada " Administración de identidad " en Wikipedia, https://en.wikipedia.org/wiki/Identity_management


[25] Entrada " Sybil attack " en Wikipedia, https://en.wikipedia.org/wiki/Sybil_attack


[26] " ¿Qué es una autoridad de certificación (CA) y qué hacen? " en Hashed Out, 2020, https://www.thesslstore.com/blog/what-is-a-certificate-authority-ca-and -qué hacen/


[27] " ¿Quién verifica los hechos a los verificadores de hechos? Un informe sobre la censura de los medios " por Phillip W. Magness et Ethan Yang, Instituto Americano de Investigación Económica, EE. UU., 2021, https://www.aier.org/article/who- fact-checks-the-fact-checkers-un-informe-sobre-la-censura-en-los-medios/


[28] Entrada de " cinta roja " en Wikipedia, https://en.wikipedia.org/wiki/Red_tape


[29] "Moderación de contenido descentralizado " por Martin Kleppmann en blog personal, 2021, https://martin.kleppmann.com/2021/01/13/decentralised-content-moderation.html


[30] " Diseño de moderación descentralizada " por Jay Graber en Medium, 2021, https://jaygraber.medium.com/designing-decentralized-moderation-a76430a8eab


[31] "Civilidad de crowdsourcing: un experimento natural que examina los efectos de la moderación distribuida en foros en línea " por Cliff Lampe et al., EE .


[32] " Por qué la inteligencia colectiva supera a la inteligencia individual " por Pawel Brodzinski en el blog del autor, 2018, https://brodzinski.com/2018/10/collective-intelligence-individual-intelligence.html


[33] " Hacer que la identificación verificada sea un requisito para abrir una cuenta de redes sociales " petición electrónica sobre Peticiones, Gobierno y Parlamento del Reino Unido, 2022, https://petition.parliament.uk/


[34] " ¿Bitcoin es legal? Regulaciones de criptomonedas en todo el mundo " por Tim Falk, Finder, EE. UU., https://www.finder.com/global-cryptocurrency-regulations


[35] " Elon Musk dice que el acuerdo de Twitter 'no puede avanzar' hasta que tenga claridad sobre los números de cuenta falsos " por Sam Shead, CNBC, 2022, https://www.cnbc.com/2022/05/17/elon-musk -dice-el-trato-de-twitter-no-puede-avanzar-hasta-que-tenga-claridad-sobre-los-números-de-bots.html