Os moderadores da Big Tech são os heróis anônimos de nossa experiência de mídia social e internet hoje. Os limpadores da interwebz, se preferir. As evidências de seu trabalho permanecem ocultas de nós. É somente quando ocorrem deslizes não intencionais que as consequências se espalham pela internet e o caos se instala.
Durante os trágicos ataques terroristas às mesquitas de Christchurch em 2019, o atacante estava transmitindo ao vivo enquanto fazia sua matança. Enquanto o massacre acontecia e muitas horas depois, esses vídeos hediondos continuaram aparecendo no Facebook, Twitter, Reddit, YouTube e outras mídias sociais. Os moderadores nessas plataformas lutaram para acompanhar. Tornou-se um jogo de gato e rato com usuários normais lutando para denunciar postagens que apareciam para que os moderadores pudessem revisá-las e removê-las rapidamente.
Na ausência de moderação adequada, você ou o feed do YouTube de seu filho podem ficar assim (Fonte: Referência nº 1)
Escusado será dizer que os moderadores passam por experiências perturbadoras como essas dia após dia, para que não precisemos. O trabalho deles garante que o conteúdo vil fique fora da internet. Coisas que muitas vezes envolvem crueldade humana indescritível – de extremismo violento, assassinato, tortura de animais, abuso infantil, estupro, automutilação, discurso de ódio, propaganda terrorista e assim por diante. Às vezes, é material de choque intencional como Elsagate ou pornografia gráfica. Em outras ocasiões, trata-se de assuntos ilegais diretos, como solicitação de contrabando. Um moderador entrevistado pela VICE no ano passado estima que 5-10% ( Fonte: Referência #2 ) do que eles veem ao longo de seu trabalho é potencialmente traumatizante.
As empresas de mídia e tecnologia, especialmente aquelas que permitem mídia gerada pelo usuário, como Facebook, Twitter, YouTube, Instagram, Reddit, Telegram etc. Para garantir que o conteúdo postado em suas plataformas siga as diretrizes, essas empresas empregam algoritmos de IA/ML (Inteligência Artificial/Aprendizado de Máquina) para filtrar automaticamente assuntos censuráveis. As coisas que passam despercebidas vão para a fila de um moderador (ou mod) para revisão manual.
Quando um usuário relata algo, ele passa por um processo de revisão automática ou manual
A designação de um mod pode variar de mod de comunidade a executivo de processo, gerente de conteúdo a associado de remoções legais ( Fonte: Referência nº 3 ) etc. Eles podem operar proativamente se detectarem conteúdo questionável ou reativamente em resposta a um relatório de um usuário. Com base em sua avaliação, eles podem optar por manter, remover ou encaminhar o material sinalizado para superiores. Escalações acontecem para áreas cinzentas, como uma questão política. Um usuário também pode ser suspenso temporariamente ou banido permanentemente da plataforma com base em suas ações. Algumas empresas também têm etapas em que os mods podem denunciar um usuário à polícia.
Trabalhadores terceirizados recebem algo entre US$ 1/hora e US$ 15/hora ( Fonte: Referência nº 4 ), enquanto os moderadores empregados diretamente recebem um pagamento melhor por esse trabalho. Mas o trauma psicológico de revisar 2.000 fotos sinalizadas/hora ( Fonte: Referência nº 5 ) ou 400 postagens relatadas/dia e o estresse resultante de manter uma alta pontuação de precisão é o mesmo para todos. Muitos desses moderadores desenvolvem distúrbios de saúde mental de longo prazo, como PTSD (transtorno de estresse pós-traumático) e ansiedade crônica como resultado da exposição prolongada ao pior conteúdo possível.
Quando exposto a obscenidades como essa, ataques de pânico e mal-estar no trabalho não são incomuns ( Fonte )
Para compartilhar alguma experiência pessoal, como gerente de comunidade para vários projetos de criptomoeda, encontrei uma variedade de material censurável em canais do Telegram, servidores Discord e fóruns de bate-papo – de piadas racistas a tráfico de drogas e solicitação de CSAM (Material de Abuso Sexual Infantil). As ações vão desde banimentos permanentes até denúncias ao FBI. Cada um desses incidentes foi angustiante, para dizer o mínimo.
Jogos e mídias sociais sempre foram interseccionais na forma de MMORPGs (Massively Multiplayer Online Role-Playing Games), como World of Warcraft, RuneScape, League of Legends, Clash of Clans, Eve Online ou jogos Battle Royale como Fortnite, PUBG, Call of Duty, Apex Legends ou até mesmo outros jogos multijogador online como Among Us, Minecraft, Pokemon Go, FarmVille etc. Os jogadores interagem uns com os outros através dos canais do jogo, servidores Discord, salas de chat, Twitch etc. e transferências de arquivos.
MMROPG como o Old School RuneScape (OSRS) tem dezenas de milhares de jogadores interagindo a qualquer momento (Fonte )
Portanto, moderadores de jogos (ou gamemasters) enfrentam desafios semelhantes aos descritos acima ao lidar com esses fóruns. No entanto, há menos ocorrências de conteúdo hediondo em fóruns de jogos em comparação com as mídias sociais. Em vez disso, os moderadores aqui devem se concentrar mais em questões como assédio, spam, trollagem, trapaça, intimidação e garantir que as regras do jogo não sejam quebradas. Devido à natureza competitiva dos jogos, esses canais de comunicação podem esquentar, deixando os mods com as mãos cheias e na ponta dos pés. Os moderadores podem ser empregados por editores/desenvolvedores ou voluntários da comunidade com altas pontuações de confiança.
Nos anos 90, os primeiros dias da internet, havia um medo generalizado de que a web levaria à disseminação de pornografia e a promiscuidade resultante destruiria o tecido social. Os relatórios da mídia usariam todos os tipos de nomes, como chamar a Internet de “conexão global de computadores” ( Fonte: Referência nº 5 ). A propagação do medo chegou a um estágio em que os racionalistas tiveram que se opor aos repetidos pedidos de censura na Internet.
Histórias assustadoras como essas criaram uma percepção negativa do público sobre a internet durante sua infância ( Fonte )
Posteriormente, a Seção 230 da Lei de Decência nas Comunicações foi ratificada. Isso deu proteção às plataformas contra a responsabilidade dos editores e a imunidade para poder remover conteúdo ruim sob a “Cláusula do Bom Samaritano”. Essa lei histórica permitiu que a Internet crescesse até o tamanho e a forma que vemos hoje. Isso também é o que oferece proteção aos moderadores para continuarem seus trabalhos sem medo de represálias das partes afetadas.
À medida que os jogos e as interações sociais se movem para metaversos (mais sobre isso mais tarde), a mesma lei protegerá os mods que “policiam” esses reinos para filtrar o mau comportamento. No entanto, haverá maior complexidade de interações nessas configurações, exigindo novos conjuntos de diretrizes para os mods operarem. Apenas para dar um exemplo, pode haver instâncias de tatear ou perseguir no metaverso que exijam a intervenção de um moderador e tomar medidas corretivas. Sem SOPs (Procedimentos Operacionais Padrão) claros, os moderadores podem continuar hesitando em tomar uma medida decisiva.
Metaverso é um termo vagamente usado que geralmente se destina a descrever um reino virtual imersivo compartilhado que alguns imaginam como o futuro da Internet. Este foi em grande parte um tópico de ficção científica até o advento de ativos digitais comprovadamente próprios na forma de criptomoedas e NFTs (Tokens Não Fungíveis). Os precursores mais próximos de uma verdadeira experiência de metaverso seriam vários mundos de jogo. No entanto, as comunidades e estúdios de jogos tradicionais têm desconfiado das criptomoedas e de suas tecnologias associadas até agora. Como resultado, empresas cripto nativas como Decentraland e The Sandbox geraram mundos semelhantes a metaversos onde os usuários podem possuir ativos (portáteis e não portáteis). As experiências em metaversos podem variar de visitas a exposições de arte ( Fonte: Referência # 6 ), participação em festivais de música , jogos e muito mais.
Michael Moynihan da VICE e Jamie Burke da Outlier Venture explorando Decentraland (Fonte: Referência #7)
Deve-se observar que, embora vários desenvolvedores de jogos tradicionais tenham expressado preocupações sobre a portabilidade ( Fonte: Referências nº 8 e nº 9 ) de uma perspectiva de jogo, os desenvolvedores Web3 consideram a portabilidade de uma perspectiva de propriedade de ativos. Esta é uma desconexão fundamental entre dois pontos de vista diferentes. Eu explorei a perspectiva cripto-nativa dos metaversos em uma entrevista no ano passado. Uma coisa que ambos os lados podem concordar é que a “terra” no metaverso deve ser ilimitada. A promessa de verdadeiros domínios descentralizados e sem permissão também deve incluir escalabilidade infinita. Metaverso aberto pelo líder de pensamento criptográfico 6529 ( Fonte: Referência # 10 ) é uma tentativa de criar um metaverso infinito onde se pode pular de reino em reino dentro do metaverso, mantendo a propriedade e o uso de seus ativos. Como menciona o site, “o espaço é abundante no metaverso”.
A recente transição do Facebook para o Meta, muito divulgada, também está focada na construção de seu próprio metaverso. Imran Ahmed, CEO do Center for Countering Digital Hate, diz que a mudança do Facebook “foi um próximo passo inevitável na evolução da mídia social. Permitir a presença física virtual das pessoas com as quais você está conectado de todo o mundo até você” ( Fonte: Referência #11 ). Não está claro se a Meta incorporará o espírito da criptografia (descentralizada, sem permissão, autocustódia) ou construirá um jardim murado com seus próprios ativos digitais e arquitetura de carteira .
A Meta planeja criar experiências altamente imersivas por meio de uma combinação de hardware e software ( Fonte )
Mas se os desenvolvimentos recentes no Twitter , Instagram , YouTube , Reddit , Shopify , Stripe , eBay e muitas outras empresas são uma indicação, NFTs, criptomoedas, blockchains, Web3 e tudo o que vem junto com eles são inevitáveis. Instâncias de estúdios de jogos nixing ( Fonte: Referência nº 12 ) contexto digital existente (recursos, pontuação, progresso, etc.) continuam a defender os desenvolvimentos da Web3. No entanto, como alguns críticos apontaram , é importante ter em mente os vetores de mau comportamento em um mundo onde blockchains podem desempenhar um grande papel.
É aqui que os moderadores entrarão. Um mod de metaverso terá uma experiência completamente diferente da mídia existente, ou seja, texto, imagens, vídeo, som, arquivos etc. Em um metaverso, além da mídia acima, haverá avatares que imitam ações humanas e usando ativos digitais para estender esses comportamentos que também precisam de moderação. Será tão real quanto possível para a polícia do espaço tentando manter a civilidade e manter as maçãs podres sob controle. Os moderadores terão seu trabalho recortado em um novo paradigma.
Os empregadores, por sua vez, terão que garantir que esse trabalho não seja apenas recompensado adequadamente, mas também o bem-estar mental dos envolvidos. A mídia social já deu uma ideia do pedágio que cobra dos mods. Essa nova iteração da experiência social não deve falhar enquanto eles se esforçam para manter a santidade dos metaversos para o resto de nós.
Divulgação: O autor não tem interesse em nenhum dos projetos mencionados neste artigo. Nenhuma informação do artigo deve ser interpretada como aconselhamento financeiro.
Outras referências:
Algo estranho está acontecendo no Youtube #ElsaGate (The Outer Light):
Os horrores de ser um moderador do Facebook | Informante (VICE):
Os moderadores do Google e do YouTube se manifestam (The Verge):
Por dentro da vida traumática de um moderador do Facebook (The Verge):
Moderação de conteúdo e liberdade de expressão | Patriot Act com Hasan Minhaj | Netflix (Netflix é uma piada):
Tweet de The Sandbox: https://twitter.com/TheSandboxGame/status/1536408399730057216
Tudo em criptografia é uma farsa? (Notícias da VICE):
Tweet de Xavier Coelho-Kostolny: https://twitter.com/xavierck3d/status/1480259615174455298
Tweet de Rami Ismail: https://twitter.com/tha_rami/status/1480404367459168258
Tweet de 6529: https://twitter.com/punk6529/status/1514718020849000461
Por que você deve se preocupar com o metaverso do Facebook | Erro de sistema (VICE News):
Tweet da Eurogamer: https://twitter.com/eurogamer/status/1534590449012310017