paint-brush
Cómo piratear la moderación de contenido en el metaverso: lecciones de Web2.0por@futuristiclawyer
473 lecturas
473 lecturas

Cómo piratear la moderación de contenido en el metaverso: lecciones de Web2.0

por Futuristic Lawyer7m2022/11/14
Read on Terminal Reader

Demasiado Largo; Para Leer

La moderación de contenido en la Web 2 es un problema sin solución, dice el autor. La moderación de contenido es imposible de establecer entre la libertad de expresión de los usuarios y la censura de contenido dañino por parte de los guardianes. Sin un código de conducta claro y sin la intervención del propietario de la plataforma, cualquier red social se deterioraría con el tiempo. La solución es simple: la mayor parte de la moderación debe ser llevada a cabo por los usuarios. La primera plataforma social en diseñar un sistema funcional de "automoderación" en el que se incentiva a los usuarios a hacer contribuciones valiosas y temen hacer lo contrario, ocupará una posición de liderazgo en "el metaverso", la fusión cada vez más profunda entre las realidades virtual y física.
featured image - Cómo piratear la moderación de contenido en el metaverso: lecciones de Web2.0
Futuristic Lawyer HackerNoon profile picture


La moderación de contenidos en Web 2 es un problema sin solución.


Es imposible trazar un estándar dorado entre la libertad de expresión de los usuarios y la censura de contenidos dañinos por parte de los guardianes. Incluso si las pautas más extensas y comprensibles del mundo fueran redactadas por 10 000 modelos de lenguaje extenso en un lapso de 10 000 horas, aún no encapsularían todos los escenarios posibles en los que las publicaciones y los comentarios caerían por debajo o por encima de "la barra de aceptabilidad". Por otro lado, sin un código de conducta claro y sin la intervención del propietario de la plataforma, cualquier red social se deterioraría con el tiempo.


El comportamiento tóxico entre los usuarios incluso se magnifica en el metaverso . En general, la intimidación, el acoso, la incitación al odio, los extraños incidentes de manoseo y otros tipos de mala conducta son demasiado comunes en los mundos virtuales. Un estudio de EE. UU. de 2021 indica que cinco de cada seis adultos (83 %) han experimentado algún tipo de acoso en los juegos multijugador en línea. De cara al futuro, el CTO actual de Meta , Andrew Bosworth, escribió en un memorando para empleados que moderar lo que la gente dice o hace en el metaverso "en cualquier escala significativa es prácticamente imposible".


¿Cómo se puede garantizar que nuestro espacio digital común no se convierta en una jungla sin ley plagada de charlatanería, spam y acoso?


Impresión por DALL-E 2


En mi opinión, la solución es simple: la mayor parte de la moderación debe ser llevada a cabo por los usuarios.


Muy parecido al sistema de puntos de la comunidad de Reddit con énfasis en dos puntos:


  • Los puntos de la comunidad deben ser percibidos como valiosos para los usuarios.


  • Cada usuario tiene una identidad en línea seudónima con un historial y una reputación que otros pueden auditar. La reputación debe ser percibida como valiosa para los usuarios.


Imagino que la primera plataforma social que diseñe un sistema funcional de "automoderación" en el que se incentive a los usuarios a hacer contribuciones valiosas y teman hacer lo contrario, ocupará una posición de liderazgo en "el metaverso", la fusión cada vez más profunda entre lo virtual y lo virtual. realidades físicas.


Echemos un vistazo más profundo a la cuestión de la moderación.

La controversia de Twitter de Ye

Ye, uno de los músicos y afroamericanos más ricos de la historia registrada, antes conocido como Kanye West, hizo un anuncio sorprendente hace algunas semanas a su multitud de más de 31 millones de seguidores en Twitter :


' Tengo un poco de sueño esta noche pero cuando me despierto me estoy volviendo loco 3 Sobre el PUEBLO JUDÍO. “Lo curioso es que en realidad no puedo ser antisemita porque los negros también son judíos. Ustedes han jugado conmigo y han tratado de engañar a cualquiera que se oponga a su agenda. '”


Además de una prohibición temporal en Twitter y una fuerte reacción de la prensa y las redes sociales, varias marcas cortaron lazos con Ye después de su controvertida declaración. Adidas rescindió el patrocinio de la marca de ropa y calzado de Ye, Yeezy, que representaba aproximadamente 1500 millones de dólares de su patrimonio neto .


Si Ye fuera un ciudadano europeo, probablemente podría recibir una multa o incluso enfrentar la cárcel por hacer comentarios antisemitas. En la UE, la incitación al odio no está protegida por el derecho a la libertad de expresión[1], mientras que en EE. UU. se considera que el derecho constitucional a la libertad de expresión pesa más. En Twitter, el único conjunto de reglas común que une a los usuarios de todo el mundo son los términos y condiciones de Twitter. Un contrato privado que solo puede ser ejecutado por la empresa y que no merece un castigo más duro para los usuarios que una prohibición permanente.


Los comentarios antisemitas de Ye fueron carne roja para las revistas de chismes y los principales medios de comunicación debido a su gran número de seguidores y su estatus de celebridad. Pero, imagine que usuarios anónimos publican en las redes sociales comentarios discriminatorios, que van desde "troleo inocente" hasta amenazas de muerte creíbles al estilo de Jeffrey Dahmer, cada fracción de segundo del día. Obviamente, ninguno de estos "anónimos" tiene un patrocinio de $ 1.5 mil millones de Adidas, y mucho menos una imagen pública que perder. Literalmente no tienen nada que perder al publicar cosas en las redes sociales, lo que resulta ser un problema.


De acuerdo con la teoría de juegos simple y la psicología humana, si un usuario actúa mal y es recompensado con más exposición, es probable que más usuarios sigan su ejemplo siempre que puedan hacerlo sin consecuencias. Como resultado, el listón de la conducta social se hunde cada vez más. Una experiencia con la que muchas personas pueden identificarse en Twitter.


La "supermente colectiva" de Musk

El nuevo "Operador de la línea directa de quejas de Twitter", Elon Musk, hizo la siguiente nota a los anunciantes después de su adquisición de Twitter:




Desde dentro de Twitter, algunos usuarios habituales se refieren a él como un "sitio infernal". Michelle Goldberg no se detiene en sus críticas en un reciente artículo de opinión para el NY Times :


A veces describo estar en Twitter como quedarme demasiado tarde en una mala fiesta llena de gente que te odia. Ahora creo que esto fue demasiado generoso con Twitter. Quiero decir, incluso las peores fiestas terminan. Twitter es más como una parábola existencialista de una fiesta, con almas incorpóreas que intentan y no logran ser vistas correctamente, para siempre. No sorprende que los usuarios más prolíficos de la plataforma a menudo se refieran a ella como "este sitio infernal".


En verdad, la mayoría de los prolíficos usuarios de Twitter rara vez tuitean.


A pesar de los grandes peligros de la polarización y las cámaras de eco,Elon Musk ve el potencial de Twitter como una "superinteligencia cibernética colectiva (con mucho margen de mejora)". Como una supermente colectiva que conecta a todos pero sin necesidad de cerebro. cordones neurales implantados.


Joe Bak-Coleman, investigador de Periodismo, Ética y Seguridad, Universidad de Columbia, no está de acuerdo con la idea :


(..) las neuronas son, en última instancia, una mala analogía para el comportamiento humano individual. Como una colección de células con ADN idéntico destinado a vivir o morir juntas, las neuronas comparten un objetivo común y no tienen motivos para competir, engañar o robar. Incluso si tuviéramos un modelo completo de cómo funciona el cerebro, no podríamos aplicarlo directamente al comportamiento humano porque no daría cuenta de la dinámica competitiva entre humanos ”.


Más adelante en su ensayo, Joe Bak-Coleman concluye:


La premisa de Elon de que Twitter puede comportarse como una inteligencia colectiva solo se mantiene si la estructura de la red y la naturaleza de las interacciones se ajustan para promover resultados colectivos ”.


En realidad, es bastante simple: si todos los usuarios compartieran la visión de Elon de Twitter como una " plaza común digital, donde se puede debatir una amplia gama de creencias de manera saludable" , no habría ningún problema con la moderación del contenido. Sin embargo, para muchos, quizás para la mayoría de los usuarios, Twitter es un “sitio infernal”, una broma o un lugar donde las palabras y las acciones no tienen consecuencias reales.


Es por esto que los usuarios necesitan incentivos para contribuir con información valiosa, honesta y veraz. Y necesitan temer las consecuencias de hacer lo contrario. Necesitamos un sistema de crédito social no autoritario moderado por la supermente colectiva.

El sistema de puntos comunitarios de Reddit como herramienta de moderación

Creo que el sistema de puntos de la comunidad de Reddit podría ser el futuro de la moderación de contenido.

La idea es crear una especie de "sistema de automoderación" en el que los usuarios puedan ganar algo haciendo contribuciones valiosas y, por otro lado, ser castigados por trolear, enviar spam, amenazar, intimidar, acosar, escupir discursos de odio o actuar en contra de los intereses de la comunidad de cualquier manera.


Reddit lanzó su sistema de puntos comunitarios a mediados de 2020 y lo describe así:


Los Puntos de la comunidad son una forma para que los usuarios de Reddit sean dueños de una parte de sus comunidades favoritas. Los moderadores y los creadores de contenido ganan Puntos al contribuir con la comunidad, y pueden gastar sus Puntos en características especiales, mostrar sus Puntos como reputación en la comunidad y votar con sus Puntos para opinar sobre las decisiones de la comunidad”.


Los puntos comunitarios son tokens ERC-20 propiedad de los usuarios en un sentido muy real, ya que se almacenan en una cadena de bloques independientemente de Reddit. Actualmente se presentan a nivel experimental en subreddits como r/CryptoCurrency (Moons), r/FortniteBR (Bricks) y r/ethtrader (Donuts). Los tokens se distribuyen a los miembros y moderadores de la comunidad de acuerdo con los puntos de karma acumulados mensualmente (votos positivos y negativos en publicaciones y comentarios).


Veo Moons, Bricks y Donuts como avances exclusivos de la comunidad del sistema de puntos de karma de Reddit. Para los no conocedores de Reddit: los puntos de karma representan votos positivos y negativos en las contribuciones de un usuario a Reddit y se muestran públicamente como un tipo de puntaje de reputación del usuario.


Los puntos de la comunidad se pueden considerar como karma de Reddit gastable y negociable.[2] Actualmente se pueden usar como votos ponderados en grupos comunitarios, para dar propina a otros usuarios, publicar GIF en comentarios, comprar elementos digitales para perfiles de usuario en Reddit e incluso se pueden intercambiar en ciertos DEX .


Hasta ahora, la utilidad y el valor de los puntos de la comunidad de Reddit son bastante limitados. Sin embargo, creo que el sistema de puntuación de crédito en un formato u otro podría ser una excelente "herramienta integrada" para la moderación de contenido, ya que los "puntos de crédito social gastables" encuentran más aplicaciones de palabras reales y aumentan de valor.


Si hay algo de verdad en la visión de Elon Musk de Twitter como una " superinteligencia cibernética colectiva ", ¿por qué los administradores deben moderar el contenido en lugar de la propia superinteligencia?


No hay duda de que aún se necesitarán moderadores en el futuro a corto plazo para eliminar las contribuciones ilegales y de odio lo antes posible. Pero especialmente en los mundos virtuales, donde la comunicación entre los usuarios ocurre en tiempo real, el daño ya está hecho antes de que los moderadores tengan la oportunidad de intervenir. Es por eso que se debe implementar un sistema de puntuación de crédito en los sitios sociales, 3D o no. como medida preventiva. La promesa de ganar tokens de la comunidad que se pueden intercambiar, convertir y usar como dinero real para obtener acceso a servicios y experiencias incentivaría a los usuarios a comportarse correctamente, así como también los ayudaría a determinar con quién les gusta hacer negocios.


Como hemos aprendido de Bitcoin , cuando solo el 51% de los usuarios en un sistema son justos y honestos, y tienen un interés propio racional para seguir siendo justos y honestos, el sistema en su conjunto funciona.


Visualización de los nodos actuales en la red Lightning (13-11-2022) Fuente: https://lnrouter.app/graph


¡Gracias por leer! Regístrese en mi Substack gratuito para publicaciones mensuales y actualizaciones de escritura.


[1] Véase el artículo 17 del Convenio Europeo de Derechos Humanos

[2] Ver https://www.reddit.com/r/ethtrader/comments/kl6ldu/donuts_faq/ .



También publicado aquí.