paint-brush
La modération dans le métaunivers est le travail le plus dégoûtant au mondepar@strateh76
1,097 lectures
1,097 lectures

La modération dans le métaunivers est le travail le plus dégoûtant au monde

Trop long; Pour lire

La question de savoir où les utilisateurs peuvent bénéficier d'une autonomie complète et où ils doivent être surveillés est débattue depuis près de deux décennies. Comprendre le comportement des "avatars" dans l'espace numérique est plus compliqué que dans la vraie vie. Un agent de sécurité dans un lieu public a suffisamment de raisons claires pour demander à un invité de quitter les lieux ou de l'interdire définitivement. Mais dans le métaunivers, c'est un geste de la zone dite "grise": ce n'est pas grave mais désagréable mais désagréable.

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - La modération dans le métaunivers est le travail le plus dégoûtant au monde
Shariy Ivan | Content marketer & Copywriter HackerNoon profile picture

Un agent de sécurité dans un lieu public a suffisamment de raisons claires pour demander à un invité de quitter les lieux ou de l'interdire définitivement. Il ou elle peut le faire pour se battre, endommager des biens, déranger d'autres visiteurs, ennuyer le personnel ou autre chose.


En revanche, le travail du videur dans le métaunivers est organisé différemment. Vous n'avez même pas besoin d'un physique solide pour résister aux visiteurs déchaînés. Il suffit d'appuyer sur un bouton qui éteint le microphone de l'utilisateur ou lui refuse l'accès au système.


Mais comprendre le comportement des "avatars" dans l'espace numérique est plus compliqué que dans la vraie vie. Et il est encore plus difficile de le contrôler.


La question de savoir où les utilisateurs peuvent bénéficier d'une autonomie complète et où ils doivent être surveillés est débattue depuis près de deux décennies. Et il n'y a toujours pas de réponse.


Le problème peut sembler insignifiant maintenant, mais plus les investisseurs et les entreprises technologiques investiront des milliards de dollars dans le développement de nouveaux espaces virtuels, plus ils auront besoin d'une réponse.


"C'est comme inviter beaucoup de monde chez vous, mais vous n'avez aucun meuble." - Lorelle Van Fossen


La société "Educators in VR" organise des dizaines d'événements virtuels chaque mois et affecte une équipe de modérateurs pour superviser chacun. Ils ont tout vu au cours de leurs quatre années de travail.


« Les trolls et les perturbateurs pensent qu'ils sont nouveaux. Ils pensent que c'est nouveau de se tenir devant une scène et de se retourner et de se branler devant tout le monde avec des gestes de la main, et ils pensent qu'ils sont inspirés. Eh bien, après l'avoir vu 85 000 fois, vous avez terminé. - Lorelle Van Fossen


Les histoires d'utilisateurs insultant et harcelant d'autres joueurs sont monnaie courante sur Internet. Certains invités viennent aux événements numériques uniquement pour ennuyer les autres. Par exemple, courir dans la pièce, crier des propos racistes, ou même menacer de "trancher la gorge de quelqu'un".


Il peut être difficile d'identifier le délinquant seul, de sorte que les modérateurs communiquent entre eux via un service audio comme Discord. De cette façon, ils se préviennent mutuellement des utilisateurs suspects et décident si "l'avatar" ignore les règles ou non. Après tout, il peut se promener d'un côté à l'autre, non pas parce qu'il veut embêter quelqu'un, mais simplement parce que son système est « glitchy ».


La modération dans le métaunivers est toujours une valse entre essayer de comprendre les véritables motivations des utilisateurs et devoir prendre des décisions rapides.


Les modérateurs éteignent les microphones des "avatars" avec des aboiements de chiens en arrière-plan, bloquent le chemin de ceux qui tentent de monter sur scène, arrêtent un spectacle de danse de masse à partir d'une chanson de Macarena, etc.



Certains utilisateurs n'ont pas de connaissances techniques et ne savent pas que même leurs actions les plus simples dans le monde réel se reflètent dans le monde virtuel. Par exemple, en passant de debout à assis, un personnage peut "frapper" le sol numérique et s'élever dans les airs en se levant. Si une personne est incapable d'utiliser un casque, elle peut accidentellement faire courir l'"avatar" dans la pièce.


Il y a un autre problème : les limites du comportement acceptable dans les mondes réel et virtuel sont différentes. Si une personne à la peau violette se présente à une conférence médicale hors ligne, on lui demandera probablement de partir. Dans le métamonde, ils ne regarderont même pas cela parce que c'est juste une caractéristique externe du personnage.


Ou, si une personne tapote quelqu'un sur la tête dans le monde réel, ses actions seront probablement inappropriées. Mais dans le métaunivers, c'est un geste de la zone dite "grise" : ce n'est pas grave mais désagréable.


Il y a trop de nuances, donc les éducateurs en VR déterminent la sévérité de la modération en fonction de l'événement. Lors des soirées de divertissement, les modérateurs n'interviennent que dans des cas extrêmes, et les séances de méditation de groupe ont une politique de "tolérance zéro". Là, un "avatar" peut être banni simplement pour se promener de manière agaçante.


Lorelle VanFossen elle-même s'est d'abord opposée à des restrictions aussi sévères, mais s'est ensuite rendu compte qu'elles étaient justifiées. Après tout, pour certains, la méditation est une thérapie quotidienne, tandis que pour d'autres, c'est un moyen de faire une pause, de soulager le stress après le travail et de "réparer" leur santé mentale.


La politique de modération dépend également de la plateforme elle-même. AltspaceVR, par exemple, se concentre sur les communautés professionnelles, il contrôle donc strictement le comportement. Le jeu multijoueur VRChat, quant à lui, est célèbre pour son anarchie.


"C'est le travail le plus dégoûtant, frustrant, stressant, provoquant des maux de tête et épuisant la santé mentale de la planète." -Lorell Vanfossen

Conclusion

On ne sait pas comment la modération fonctionnera lorsque des millions de personnes se rassembleront dans des métaunivers. AltspaceVR a des modérateurs à temps plein mais laisse la majeure partie du travail aux utilisateurs. Meta permet également aux "avatars" de bloquer eux-mêmes les contrevenants. Mais à l'avenir, il est peu probable que les utilisateurs aient suffisamment de temps et d'énergie pour contrôler le comportement d'innombrables personnes.


La solution est l'automatisation. Pour l'instant, cependant, les algorithmes ne peuvent même pas gérer la toxicité sur les réseaux sociaux textuels. On ne sait pas comment ils fonctionneront dans un métaunivers, où chaque action peut être interprétée différemment.


Je vous conseille également de lire :