YouTube es una de las mayores plataformas de redes sociales que existen, con más de 2600 millones de usuarios mensuales . Cada minuto se cargan más de 500 minutos de video a medida que innumerables creadores usan la plataforma para compartir sus pasiones e intereses, y para generar un flujo de ingresos adicional o incluso un ingreso de tiempo completo.
Eso es posible gracias al Programa de socios de YouTube, que les da a sus creadores una parte de las ganancias por publicidad en los videos. Además, YouTube también ha introducido algunas funciones de monetización directa, como Super Thanks y Stickers. Estos permiten a los espectadores dar propina a los creadores directamente.
Sin embargo, muchos creadores de minorías afirman que el algoritmo de la plataforma los discrimina y que están perdiendo ganancias en comparación con sus pares. En el pasado, varias demandas por discriminación presentadas por creadores LGBTQ y BIPOC fracasaron, pero ahora la Corte Suprema de EE. UU. está revisando la legislación subyacente.
Aquí está el resumen completo de estas afirmaciones, su fundamento y lo que sucederá a continuación.
Antes de sumergirnos en la larga historia de acusaciones de discriminación contra YouTube, es esencial comprender el papel del algoritmo de la plataforma en todo esto.
Básicamente, determina qué creadores tienen éxito en YouTube y cuáles desaparecen en la oscuridad.
El algoritmo de YouTube evalúa cada video que se carga y decide qué aparece en los resultados de búsqueda y recomendaciones. También marca videos que contienen contenido inapropiado y aplica restricciones sobre quién puede verlos.
Tener una restricción de edad en su video, por ejemplo, prácticamente significa que se vuelve imposible monetizarlo. Por un lado, solo será visible para los usuarios que hayan iniciado sesión y sean mayores de 18 años. Por otro lado, la mayoría de los anuncios no se ejecutan en videos que tienen restricciones, lo que reduce los ingresos de los creadores.
Es por eso que el algoritmo de YouTube tiene una gran influencia en el éxito de los creadores, tanto en el tamaño de su audiencia como en el contenido que pueden usar para generar ingresos.
Dos de las demandas por discriminación más destacadas contra YouTube en realidad giran en torno a las restricciones que los creadores de BIPOC y LGBTQ imponen a los videos.
En 2020, los creadores afroamericanos iniciaron una supuesta demanda colectiva contra Alphabet, la empresa matriz de YouTube. Alegaron que YouTube usó su algoritmo para marcar videos usando terminología relacionada con el movimiento Black Lives Matter, incluidos "perfiles raciales", "BLM" y "tiroteo policial". Posteriormente, estos videos se colocaron en modo restringido.
Una demanda similar ya fue presentada en agosto de 2019 por creadores LGBTQ . Afirmaron que los videos que usaban palabras como "gay", "bisexual" y "transgénero" en sus títulos, etiquetas y descripciones a menudo se marcaban y restringían.
Una queja similar apareció mucho más recientemente . El popular YouTuber negro CoryxKenshin publicó un video que describe su experiencia al ser atacado por el algoritmo de YouTube por publicar contenido que sus compañeros subieron sin problemas.
La disputa es sobre el juego de terror independiente lanzado recientemente The Mortuary Assistant. Rápidamente ganó popularidad entre los YouTubers de juegos y muchos de ellos subieron partidas, incluido CoryxKenshin.
Sin embargo, a diferencia de los de otros creadores, el video de CoryxKenshin se marcó y restringió rápidamente, sin que YouTube le dijera por qué.
Apeló la restricción, que fue denegada. Sin aflojar, finalmente descubrió que la restricción se aplicó debido a una escena del final de la reproducción, que incluía imágenes relacionadas con el suicidio.
¿El problema? Las reproducciones de otros YouTubers blancos populares incluían exactamente la misma escena, sin haber sido marcadas.
CoryxKenshin luego se acercó a YouTube, una vez más apelando la restricción, pero esta vez usando el juego sin restricciones de Markiplier como argumento.
Rápidamente, se eliminó la restricción en su video.
En su video sobre racismo y favoritismo, CoryxKenshin también detalla cuánto de su contenido se restringe justo cuando está de moda. Un ejemplo que da es un viejo video suyo que comenzó a ser tendencia justo después de que regresó de una pausa.
Si el algoritmo operara sin prejuicios, argumenta, ese contenido debería haber sido marcado hace mucho tiempo. Tal como está, da la impresión de que su canal está siendo atacado a propósito.
Otra evidencia reciente de sesgo racial en el algoritmo de YouTube proviene de un estudio realizado por Common Sense Media, un sitio web de revisión de entretenimiento para niños . En asociación con la Universidad de Michigan, revisaron el contenido para niños que el algoritmo de YouTube promueve para audiencias más jóvenes.
Dado que la plataforma presenta contenido generado por el usuario, argumentan los autores, tiene muchas más posibilidades de representar la realidad diversa en la que vivimos. Especialmente en comparación con los estudios de Hollywood, que aún luchan con la representación BIPOC.
Sin embargo, los resultados del estudio mostraron que la mayoría (62 %) del contenido popular entre los niños menores de 9 años no presentaba ningún personaje BIPOC. Los videos que incluían diversos personajes tenían significativamente más probabilidades de presentar elementos negativos, como malas palabras y violencia. Además, el 10 % de los videos que lograron popularidad viral entre los preadolescentes y adolescentes presentaban estereotipos raciales.
Eso no quiere decir que el contenido positivo de los creadores de BIPOC no exista. YouTube solo falla en promocionarlo a través de su algoritmo.
Si bien los autores del estudio no acusan directamente al algoritmo de promover contenido sesgado, hacen un llamado urgente a una mayor transparencia y un esfuerzo consciente por parte de YouTube para promover contenido BIPOC positivo para niños.
YouTube dice que ya ha dado grandes pasos y que está trabajando para implementar iniciativas de programación diseñadas para promover la diversidad y la inclusión. Sin embargo, los efectos aún no parecen ser evidentes para los creadores.
Parte del problema también es que YouTube y otras plataformas de redes sociales como esta actualmente disfrutan de amplias protecciones legales, gracias a la Sección 230 de la Ley de Decencia en las Comunicaciones. Esta ley, aprobada en 1996, estipula que las empresas en línea no son responsables de transmitir materiales subidos por otros.
Aquellos de nosotros que recordamos Internet en 1996 bien podemos pensar que es extraño que una ley de la era anterior a Google de tableros de mensajes, conexiones de Internet de acceso telefónico y MSN regule las gigantescas corporaciones de redes sociales de hoy. Muchos políticos están de acuerdo y han lanzado iniciativas para modificar la ley . Sin éxito, hasta ahora.
En 2020 y 2021, la Sección 230 se utilizó para vencer las demandas de los creadores LGBTQ y BIPOC que alegaban parcialidad.
Ahora, sin embargo, la Corte Suprema de los EE. UU. aceptó escuchar un desafío a la Sección 230. Un argumento clave es que los gigantes de las redes sociales como YouTube pierden la protección de la ley tan pronto como sus algoritmos amplifican cierto contenido, lo que aumenta la señal de su mensaje.
Queda por ver si la Sección 230 se modificará sobre la base de la amplificación algorítmica y cómo ayudará a diversos creadores a combatir el sesgo.
Por el momento, lo mejor que pueden hacer es ser conscientes del funcionamiento opaco del algoritmo y del hecho de que parece haber un sesgo palpable contra los creadores que representan a las minorías. Y para hablar de ello.
Al resaltar sus experiencias con estas discrepancias como colectivo, pueden contribuir al cambio y proporcionar argumentos para que los abogados aborden el marco legal que permite que sucedan.