Les modérateurs de Big Tech sont les héros méconnus de notre expérience des médias sociaux et d'Internet aujourd'hui. Les nettoyeurs de l'interwebz si vous voulez. Les preuves de leur travail nous restent obscures. Ce n'est que lorsque des dérapages involontaires se produisent que les conséquences se répercutent sur Internet et que le chaos s'ensuit.
Lors des tragiques attentats terroristes contre les mosquées de Christchurch en 2019, l'attaquant diffusait en direct alors qu'il se livrait à sa tuerie. Alors que le massacre se poursuivait et plusieurs heures après, ces vidéos odieuses ont continué à faire surface sur Facebook, Twitter, Reddit, YouTube et d'autres médias sociaux. Les modérateurs de ces plates-formes ont eu du mal à suivre. C'est devenu un jeu du chat et de la souris avec des utilisateurs normaux qui se bousculaient pour signaler les messages qui s'affichaient afin que les modérateurs puissent les examiner et les supprimer rapidement.
En l'absence d'une modération adéquate, vous ou le flux YouTube de votre enfant pourrait ressembler à ceci (Source : Référence 1)
Il va sans dire que les modérateurs vivent des expériences troublantes comme celles-ci jour après jour pour que nous n'ayons pas à le faire. Leur travail garantit que le contenu ignoble reste en dehors d'Internet. Des choses qui impliquent souvent une cruauté humaine indescriptible - de l'extrémisme violent, au meurtre, à la torture des animaux, à la maltraitance des enfants, au viol, à l'automutilation, au discours de haine, à la propagande terroriste, etc. Parfois, c'est du matériel de choc intentionnel comme Elsagate ou de la pornographie graphique. À d'autres moments, il s'agit tout simplement d'activités illégales telles que la sollicitation de produits de contrebande. Un modérateur interrogé par VICE l'année dernière estime que 5 à 10 % ( Source : Référence n°2 ) de ce qu'il voit au cours de son travail est potentiellement traumatisant.
Les entreprises de médias et de technologie, en particulier celles qui autorisent les médias générés par les utilisateurs, tels que Facebook, Twitter, YouTube, Instagram, Reddit, Telegram, etc. ont des normes communautaires qui sont généralement basées sur des principes de bon sens et des lois statutaires. Afin de s'assurer que le contenu publié sur leurs plateformes respecte les directives, ces entreprises utilisent des algorithmes AI/ML (intelligence artificielle/apprentissage automatique) pour filtrer automatiquement les éléments répréhensibles. Les éléments qui passent entre les mailles du filet passent dans la file d'attente d'un modérateur (ou mod) pour un examen manuel.
Lorsqu'un utilisateur signale quelque chose, il passe par un processus d'examen automatique ou manuel
La désignation d'un mod peut varier d'un mod communautaire à un responsable de processus, en passant par un gestionnaire de contenu ou un associé aux suppressions légales ( Source : Référence 3 ), etc. Ils peuvent opérer de manière proactive s'ils détectent un contenu douteux ou de manière réactive en réponse à un rapport d'un utilisateur. En fonction de leur évaluation, ils peuvent choisir de conserver, de supprimer ou de transmettre le matériel signalé à des supérieurs hiérarchiques. Les escalades se produisent pour les zones grises telles qu'une question politique. Un utilisateur peut également être temporairement suspendu ou définitivement banni de la plateforme en fonction de ses actions. Certaines entreprises ont également mis en place des étapes permettant aux modérateurs de signaler un utilisateur à la police.
Les travailleurs contractuels tiers reçoivent entre 1 $/heure et 15 $/heure ( Source : Référence 4 ) tandis que les modérateurs employés directement reçoivent un meilleur salaire pour ce travail. Mais le traumatisme psychologique résultant de l'examen de 2 000 photos signalées/heure ( Source : Référence n°5 ) ou de 400 messages signalés/jour et le stress qui en résulte pour maintenir un score de précision élevé sont les mêmes pour tous. Beaucoup de ces modérateurs développent des troubles de santé mentale à long terme tels que le SSPT (trouble de stress post-traumatique) et l'anxiété chronique à la suite d'une exposition prolongée au pire contenu possible.
Lorsqu'ils sont exposés à du charbon comme celui-ci, les attaques de panique et les nausées au travail ne sont pas rares ( Source )
Pour partager une expérience personnelle, en tant que gestionnaire de communauté pour divers projets de crypto-monnaie, j'ai rencontré une variété de matériel répréhensible dans les chaînes Telegram, les serveurs Discord et les forums de discussion - des jibes racistes au trafic de drogue en passant par la sollicitation de CSAM (Child Sexual Abuse Material). Les actions vont des interdictions permanentes au signalement de l'affaire au FBI. Chacun de ces incidents a été pour le moins pénible.
Les jeux et les médias sociaux ont toujours été intersectionnels sous la forme de MMORPG (jeux de rôle en ligne massivement multijoueurs) tels que World of Warcraft, RuneScape, League of Legends, Clash of Clans, Eve Online ou des jeux Battle Royale comme Fortnite, PUBG, Call of Duty, Apex Legends ou même d'autres jeux multijoueurs en ligne tels que Among Us, Minecraft, Pokemon Go, FarmVille, etc. Les joueurs interagissent les uns avec les autres via les canaux du jeu, les serveurs Discord, les salons de discussion, Twitch, etc. par texte, audio, vidéo et transferts de fichiers.
Les MMROPG comme Old School RuneScape (OSRS) ont des dizaines de milliers de joueurs qui interagissent à tout moment (Source )
Ainsi, les modérateurs de jeu (ou maîtres de jeu) sont confrontés aux mêmes défis que ci-dessus lors de la gestion de ces forums. Cependant, il y a moins de cas de contenu odieux dans les forums de jeu par rapport aux médias sociaux. Au lieu de cela, les modérateurs ici doivent se concentrer davantage sur des problèmes tels que le harcèlement, le spam, la pêche à la traîne, la tricherie, l'intimidation et s'assurer que les règles du jeu ne sont pas enfreintes. En raison de la nature compétitive des jeux, ces canaux de communication pourraient s'échauffer, laissant les mods les mains pleines et sur leurs orteils. Les modérateurs peuvent être employés par des éditeurs/développeurs ou des bénévoles de la communauté avec des scores de confiance élevés.
Dans les années 90, les débuts d'Internet, il y avait une peur généralisée que le Web conduirait à la propagation de la pornographie et que la promiscuité qui en résulterait détruirait le tissu social. Les reportages des médias utiliseraient toutes sortes de noms, par exemple en qualifiant Internet de «connexion informatique mondiale» ( Source : Référence n ° 5 ). La campagne de peur a atteint un stade où les rationalistes ont dû contrer les appels répétés à la censure d'Internet.
Des histoires effrayantes comme celles-ci ont créé une perception publique négative d'Internet à ses débuts ( Source )
Par la suite, l'article 230 de la Communications Decency Act a été ratifié. Cela a donné aux plateformes une protection contre la responsabilité des éditeurs et l'immunité pour pouvoir supprimer les mauvais contenus en vertu de la « clause du bon samaritain ». Cette loi historique a permis à Internet d'atteindre la taille et la forme que nous connaissons aujourd'hui. C'est aussi ce qui offre une protection aux modérateurs pour continuer leur travail sans crainte de représailles des parties concernées.
Au fur et à mesure que les jeux et les interactions sociales se déplacent vers les métaverses (plus à ce sujet plus tard), la même loi protégera les mods qui "surveillent" ces royaumes pour filtrer les mauvais comportements. Cependant, il y aura une plus grande complexité des interactions dans ces paramètres, nécessitant de nouveaux ensembles de directives pour que les mods fonctionnent. Juste pour un exemple, il pourrait y avoir des cas de tâtonnement ou de harcèlement dans le métaverse qui nécessitent qu'un modérateur intervienne et prenne des mesures correctives. Sans SOP (Standard Operating Procedures) claires, les modérateurs pourraient continuer à douter de la prise d'une mesure décisive.
Le métaverse est un terme vague qui est généralement destiné à décrire un domaine virtuel immersif partagé que certains envisagent comme l'avenir d'Internet. C'était en grande partie un sujet de science-fiction jusqu'à l'avènement d'actifs numériques dont la propriété était prouvée sous la forme de crypto-monnaies et de NFT (jetons non fongibles). Les précurseurs les plus proches d'une véritable expérience métaverse seraient divers mondes de jeu. Cependant, les communautés et les studios de jeux traditionnels se méfient jusqu'à présent de la cryptographie et de ses technologies associées. En conséquence, des sociétés crypto-natives comme Decentraland et The Sandbox ont engendré des mondes de type métaverse où les utilisateurs peuvent posséder des actifs (portables et non portables). Les expériences dans les métaverses peuvent aller de la visite d'expositions d'art ( Source : Référence 6 ), à la participation à des festivals de musique , à des jeux et bien plus encore.
Michael Moynihan de VICE et Jamie Burke d'Outlier Venture explorent Decentraland (Source : Référence 7)
Il convient de noter que si divers développeurs de jeux traditionnels ont exprimé des inquiétudes concernant la portabilité ( Source : Références #8 et #9 ) du point de vue du gameplay, les développeurs Web3 considèrent la portabilité du point de vue de la propriété des actifs. Il s'agit d'un décalage fondamental entre deux points de vue différents. J'ai exploré les perspectives crypto-natives des métaverses dans une interview l'année dernière. Une chose sur laquelle les deux parties pourraient s'entendre est que la «terre» dans le métaverse devrait être illimitée. La promesse de véritables domaines décentralisés sans autorisation devrait également inclure une évolutivité infinie. Open Metaverse par le leader d'opinion crypto 6529 ( Source : Référence #10 ) est une tentative de créer un métaverse infini où l'on peut passer d'un domaine à l'autre à l'intérieur du métaverse tout en conservant la propriété et l'utilisation de ses actifs. Comme le mentionne le site Web, "l'espace est abondant dans le métaverse".
La récente transition très médiatisée de Facebook vers Meta se concentre également sur la construction de son propre métaverse. Imran Ahmed, PDG du Center for Countering Digital Hate, a déclaré que la décision de Facebook « était une prochaine étape inévitable dans l'évolution des médias sociaux. Permettre la présence physique virtuelle des personnes avec lesquelles vous êtes connecté dans le monde entier » ( Source : Référence #11 ). On ne sait pas si Meta incorporera l'éthos de la crypto (décentralisée, sans autorisation, auto-garde) ou construira un jardin clos avec ses propres actifs numériques et son architecture de portefeuille à la place.
Meta prévoit de créer des expériences hautement immersives grâce à une combinaison de matériel et de logiciels ( Source )
Mais si les développements récents chez Twitter , Instagram , YouTube , Reddit , Shopify , Stripe , eBay et de nombreuses autres entreprises sont une indication, les NFT, les crypto-monnaies, les blockchains, le Web3 et tout ce qui les accompagne sont inévitables. Les exemples de studios de jeux qui nixent ( Source : Référence 12 ) le contexte numérique existant (ressources, score, progression, etc.) continuent de plaider en faveur des développements Web3. Cependant, comme certains critiques l'ont souligné , il est important de garder à l'esprit les vecteurs de mauvais comportements dans un monde où les blockchains peuvent jouer un rôle important.
C'est là que les modérateurs entreront en jeu. Un mod métaverse aura une expérience complètement différente des médias existants, c'est-à-dire du texte, des images, des vidéos, du son, des fichiers, etc. Dans un métaverse, en plus des médias ci-dessus, il y aura des avatars imitant les actions humaines et l'utilisation d'actifs numériques pour étendre les comportements qui nécessiteront également une modération. Ce sera aussi réel que possible pour la police de l'espace de la viande qui essaie de maintenir la civilité et de contrôler les brebis galeuses. Les modérateurs auront du pain sur la planche dans un nouveau paradigme.
Les employeurs, pour leur part, devront s'assurer que ce travail est non seulement convenablement rémunéré, mais que le bien-être mental des personnes impliquées est également pris en compte. Les médias sociaux ont déjà donné une idée de l'impact qu'ils ont sur les mods. Cette nouvelle itération de l'expérience sociale ne devrait pas leur faire défaut alors qu'ils s'efforcent de maintenir le caractère sacré des métavers pour le reste d'entre nous.
Divulgation: L'auteur n'a aucun intérêt direct dans aucun des projets mentionnés dans cet article. Aucune information de l'article ne doit être interprétée comme un conseil financier.
Autres références:
Quelque chose d'étrange se passe sur Youtube #ElsaGate (The Outer Light):
Les horreurs d'être un modérateur Facebook | Informateur (VICE):
Les modérateurs de Google et YouTube s'expriment (The Verge):
Dans la vie traumatisante d'un modérateur de Facebook (The Verge) :
Modération du contenu et liberté d'expression | Patriot Act avec Hasan Minhaj | Netflix (Netflix est une blague):
Tweet de The Sandbox : https://twitter.com/TheSandboxGame/status/1536408399730057216
Est-ce que tout dans Crypto est une arnaque ? (VICE Actualités) :
Tweet de Xavier Coelho-Kostolny : https://twitter.com/xavierck3d/status/1480259615174455298
Tweet de Rami Ismail : https://twitter.com/tha_rami/status/1480404367459168258
Tweet de 6529 : https://twitter.com/punk6529/status/1514718020849000461
Pourquoi devriez-vous vous inquiéter du métaverse de Facebook | Erreur système (VICE News) :
Tweet d'Eurogamer : https://twitter.com/eurogamer/status/1534590449012310017