Los moderadores de Big Tech son los héroes anónimos de nuestras redes sociales e Internet en la actualidad. Los limpiadores de la interwebz si se quiere. La evidencia de su trabajo permanece oculta para nosotros. Solo cuando ocurren errores no deseados, las consecuencias se extienden a Internet y se produce el caos.
Durante los trágicos ataques terroristas en las mezquitas de Christchurch en 2019, el atacante estaba transmitiendo en vivo mientras realizaba su matanza. Mientras continuaba la masacre y muchas horas después, esos videos atroces siguieron apareciendo en Facebook, Twitter, Reddit, YouTube y otras redes sociales. Los moderadores en esas plataformas lucharon por mantenerse al día. Se convirtió en un juego del gato y el ratón en el que los usuarios normales se apresuraban a denunciar las publicaciones que aparecían para que los moderadores pudieran revisarlas y eliminarlas rápidamente.
En ausencia de la moderación adecuada, su feed de YouTube o el de su hijo podría tener este aspecto (Fuente: Referencia n.º 1)
No hace falta decir que los moderadores pasan por experiencias perturbadoras como estas día tras día para que nosotros no tengamos que hacerlo. Su trabajo asegura que el contenido vil permanezca fuera de Internet. Cosas que a menudo implican una crueldad humana indescriptible, desde el extremismo violento hasta el asesinato, la tortura de animales, el abuso infantil, la violación, las autolesiones, el discurso de odio, la propaganda terrorista, etc. A veces, es material impactante intencional como Elsagate o pornografía gráfica. En otras ocasiones, se trata directamente de asuntos ilegales, como la solicitud de contrabando. Un moderador entrevistado por VICE el año pasado estima que entre el 5 y el 10 % ( fuente: referencia n.° 2 ) de lo que ven en el transcurso de su trabajo es potencialmente traumático.
Las empresas de medios y tecnología, especialmente aquellas que permiten medios generados por usuarios, como Facebook, Twitter, YouTube, Instagram, Reddit, Telegram, etc., tienen estándares comunitarios que generalmente se basan en principios de sentido común y leyes estatutarias. Para garantizar que el contenido publicado en sus plataformas siga las pautas, estas empresas emplean algoritmos AI/ML (inteligencia artificial/aprendizaje automático) para filtrar automáticamente el material objetable. Las cosas que se escapan pasan a la cola de un moderador (o moderador) para su revisión manual.
Cuando un usuario informa algo, pasa por un proceso de revisión automático o manual.
La designación de un moderador puede variar de moderador comunitario a ejecutivo de procesos, administrador de contenido, asociado de remociones legales ( Fuente: Referencia n.º 3 ), etc. Pueden operar de manera proactiva si detectan contenido cuestionable o de manera reactiva en respuesta a un informe de un usuario. Según su evaluación, pueden optar por mantener, eliminar o escalar el material marcado a los superiores. Las escaladas ocurren para áreas grises, como un asunto político. Un usuario también puede ser suspendido temporalmente o expulsado permanentemente de la plataforma en función de sus acciones. Algunas compañías también tienen pasos en el lugar donde los moderadores pueden denunciar a un usuario a la policía.
Los trabajadores contratados por terceros reciben entre $ 1 por hora y $ 15 por hora ( Fuente: Referencia n.° 4 ), mientras que los moderadores empleados directamente reciben una mejor paga por este trabajo. Pero el trauma psicológico de revisar 2000 fotos marcadas por hora ( fuente: referencia n.º 5 ) o 400 publicaciones denunciadas por día y el estrés resultante de mantener un puntaje de alta precisión es el mismo para todos. Muchos de estos moderadores desarrollan trastornos de salud mental a largo plazo, como TEPT (trastorno de estrés postraumático) y ansiedad crónica como resultado de una exposición prolongada al peor contenido posible.
Cuando se expone a una obscenidad como esta, los ataques de pánico y la sensación de malestar en el trabajo no son infrecuentes ( Fuente )
Para compartir una experiencia personal, como administrador de la comunidad para varios proyectos de criptomonedas, me encontré con una variedad de material objetable en los canales de Telegram, los servidores de Discord y los foros de chat, desde burlas racistas hasta tráfico de drogas y solicitud de CSAM (material de abuso sexual infantil). Las acciones van desde prohibiciones permanentes hasta denunciar el asunto al FBI. Cada uno de esos incidentes ha sido angustiante, por decir lo menos.
Los juegos y las redes sociales siempre han sido interseccionales en forma de MMORPG (juegos de rol multijugador masivo en línea) como World of Warcraft, RuneScape, League of Legends, Clash of Clans, Eve Online o Battle Royale juegos como Fortnite, PUBG, Call of Duty, Apex Legends o incluso otros juegos multijugador en línea como Among Us, Minecraft, Pokemon Go, FarmVille, etc. Los jugadores interactúan entre sí a través de los canales del juego, los servidores de Discord, las salas de chat, Twitch, etc. a través de texto, audio y video. y transferencias de archivos.
Los MMROPG como Old School RuneScape (OSRS) tienen decenas de miles de jugadores interactuando en un momento dado (Fuente )
Por lo tanto, los moderadores de juegos (o directores de juegos) se enfrentan a desafíos similares a los anteriores cuando manejan estos foros. Sin embargo, hay menos instancias de contenido atroz en los foros de juegos en comparación con las redes sociales. En cambio, los moderadores aquí tienen que centrarse más en cuestiones como el acoso, el spam, el troleo, las trampas, la intimidación y garantizar que no se rompan las reglas del juego. Debido a la naturaleza competitiva de los juegos, estos canales de comunicación podrían calentarse y dejar a los moderadores con las manos ocupadas y alerta. Los moderadores pueden ser empleados por editores/desarrolladores o voluntarios de la comunidad con puntajes altos de confianza.
En los años 90, los primeros días de Internet, hubo un miedo generalizado generalizado de que la web conduciría a la difusión de la pornografía y la promiscuidad resultante destruiría el tejido social. Los informes de los medios usarían todo tipo de nombres, como llamar a Internet una "conexión global de computadoras" ( Fuente: Referencia # 5 ). El alarmismo llegó a un punto en el que los racionalistas tuvieron que contrarrestar los repetidos llamamientos para censurar Internet.
Historias de miedo como estas crearon una percepción pública negativa sobre Internet durante su infancia ( Fuente )
Posteriormente, se ratificó el artículo 230 de la Ley de Decencia en las Comunicaciones. Esto dio protección a las plataformas de la responsabilidad de los editores y la inmunidad para poder eliminar contenido malo bajo la "Cláusula del Buen Samaritano". Esta ley histórica permitió que Internet creciera hasta alcanzar el tamaño y la forma que vemos hoy. Esto también es lo que ofrece protección a los moderadores para continuar con su trabajo sin temor a represalias por parte de las partes afectadas.
A medida que los juegos y las interacciones sociales se trasladan a los metaversos (más sobre esto más adelante), la misma ley protegerá a los mods que "vigilan" estos reinos para filtrar el mal comportamiento. Sin embargo, habrá una mayor complejidad de interacciones en estos entornos, lo que requerirá nuevos conjuntos de pautas para que las modificaciones funcionen. Solo como ejemplo, podría haber instancias de manoseo o acoso en el metaverso que requieran que un moderador intervenga y tome medidas correctivas. Sin SOP (Procedimientos Operativos Estándar) claros, los moderadores podrían quedarse dudando sobre tomar una medida decisiva.
Metaverso es un término poco utilizado que generalmente se usa para describir un reino virtual inmersivo compartido que algunos imaginan como el futuro de Internet. Este fue en gran parte un tema de ciencia ficción hasta la llegada de los activos digitales de propiedad comprobable en forma de criptomonedas y NFT (tokens no fungibles). Los precursores más cercanos de una verdadera experiencia de metaverso serían varios mundos de juego. Sin embargo, las comunidades y estudios de juegos tradicionales han desconfiado de las criptomonedas y sus tecnologías asociadas hasta ahora. Como resultado, empresas nativas de criptomonedas como Decentraland y The Sandbox han generado mundos similares a metaversos donde los usuarios pueden poseer activos (tanto portátiles como no portátiles). Las experiencias en metaversos pueden variar desde visitar exhibiciones de arte ( Fuente: Referencia #6 ), asistir a festivales de música , jugar juegos y mucho más.
Michael Moynihan de VICE y Jamie Burke de Outlier Venture exploran Decentraland (Fuente: Referencia #7)
Cabe señalar que, si bien varios desarrolladores de juegos tradicionales han expresado su preocupación por la portabilidad ( Fuente: referencias n.º 8 y n.º 9 ) desde la perspectiva del juego, los desarrolladores de Web3 consideran la portabilidad desde la perspectiva de la propiedad de los activos. Esta es una desconexión fundamental entre dos puntos de vista diferentes. Exploré la perspectiva cripto-nativa de los metaversos en una entrevista el año pasado. Una cosa en la que ambos lados podrían estar de acuerdo es que la "tierra" en el metaverso debería ser ilimitada. La promesa de verdaderos reinos descentralizados y sin permisos también debería incluir una escalabilidad infinita. Open Metaverse por el líder de pensamiento criptográfico 6529 ( Fuente: Referencia # 10 ) es un intento de crear un metaverso infinito donde uno puede saltar de un reino a otro dentro del metaverso mientras conserva la propiedad y el uso de sus activos. Como menciona el sitio web, "El espacio es abundante en el metaverso".
La muy publicitada transición reciente de Facebook a Meta también se enfoca en construir su propio metaverso. Imran Ahmed, CEO del Center for Countering Digital Hate, dice que el movimiento de Facebook “fue el siguiente paso inevitable en la evolución de las redes sociales. Permitir la presencia física virtual de las personas con las que está conectado de todo el mundo” ( Fuente: Referencia #11 ). No está claro si Meta incorporará el espíritu de las criptomonedas (descentralizado, sin permiso, con autocustodia) o construirá un jardín amurallado con sus propios activos digitales y arquitectura de billetera .
Meta planea crear experiencias altamente inmersivas a través de una combinación de hardware y software ( Fuente )
Pero si los desarrollos recientes en Twitter , Instagram , YouTube , Reddit , Shopify , Stripe , eBay y muchas otras compañías son una indicación, las NFT, las criptomonedas, las cadenas de bloques, Web3 y todo lo que las acompaña son inevitables. Los casos en que los estudios de juegos rechazan ( Fuente: Referencia n.º 12 ) el contexto digital existente (activos, puntuación, progreso, etc.) continúan defendiendo los desarrollos de Web3. Sin embargo, como han señalado algunos críticos, es importante tener en cuenta los vectores de mal comportamiento en un mundo donde las cadenas de bloques pueden jugar un papel importante.
Aquí es donde entrarán los moderadores. Un mod de metaverso tendrá una experiencia completamente diferente de los medios existentes, es decir, texto, imágenes, video, sonido, archivos, etc. En un metaverso, además de los medios anteriores, habrá avatares que imitan las acciones humanas. y el uso de activos digitales para extender esos comportamientos que también necesitarán moderación. Será tan real como sea posible para la policía del espacio cárnico que trata de mantener el civismo y mantener a raya a las manzanas podridas. Los moderadores tendrán su trabajo recortado en un nuevo paradigma.
Los empleadores, por su parte, deberán asegurarse de que este trabajo no solo se recompense adecuadamente, sino que también se cuide el bienestar mental de los involucrados. Las redes sociales ya han dado una idea del costo que cobran las modificaciones. Esta nueva iteración de la experiencia social no debería fallarles en su lucha por defender la santidad de los metaversos para el resto de nosotros.
Divulgación: el autor no tiene ningún interés personal en ninguno de los proyectos mencionados en este artículo. Ninguna información del artículo debe interpretarse como asesoramiento financiero.
Otras referencias:
Algo extraño está pasando en Youtube #ElsaGate (La Luz Exterior):
Los horrores de ser moderador de Facebook | Delator (VICE):
Los moderadores de Google y YouTube hablan (The Verge):
Dentro de la vida traumática de un moderador de Facebook (The Verge):
Moderación de contenido y libertad de expresión | Ley Patriota con Hasan Minhaj | Netflix (Netflix es una broma):
Tweet de The Sandbox: https://twitter.com/TheSandboxGame/status/1536408399730057216
¿Todo en Crypto es una estafa? (VICE Noticias):
Tuit de Xavier Coelho-Kostolny: https://twitter.com/xavierck3d/status/1480259615174455298
Tuit de Rami Ismail: https://twitter.com/tha_rami/status/1480404367459168258
Tuit de 6529: https://twitter.com/punk6529/status/1514718020849000461
Por qué debería preocuparse por el metaverso de Facebook | Error del sistema (VICE News):
Tuit de Eurogamer: https://twitter.com/eugamer/status/1534590449012310017