YouTubeは最大のソーシャル メディア プラットフォームの 1 つで、月間ユーザー数は 26 億人を超えます。無数のクリエイターがプラットフォームを使用して情熱と興味を共有し、追加の収入源やフルタイムの収入を生み出すため、毎分 500 分を超えるビデオがアップロードされています。
これは、動画の広告収益の一部をクリエイターに提供する YouTube のパートナー プログラムのおかげで可能になりました。さらに、YouTube は Super Thanks や Stickers などの直接的な収益化機能も導入しています。これらにより、視聴者はクリエイターに直接チップを渡すことができます。
しかし、多くのマイノリティ クリエーターは、プラットフォームのアルゴリズムによって差別されており、同業者と比較して収益を失っていると主張しています。過去には、LGBTQ や BIPOC の作成者によるいくつかの差別訴訟が敗訴しましたが、現在、米国最高裁判所は基礎となる法律を再検討しています。
これらの主張、その根拠、および次に何が起こっているかについての完全な概要は次のとおりです.
YouTube に対する差別告発の長い歴史に飛び込む前に、このすべてにおけるプラットフォームのアルゴリズムの役割を理解することが不可欠です。
基本的に、どのクリエイターが YouTube で成功を収め、どのクリエイターが姿を消すかを決定します。
YouTube のアルゴリズムは、アップロードされた各動画を評価し、検索結果とおすすめに表示されるものを決定します。また、不適切なコンテンツを含む動画にフラグを立て、それらを表示できるユーザーに制限を適用します。
たとえば、動画に年齢制限を設けることは、実質的に収益化が不可能になることを意味します。まず、サインインしている 18 歳以上のユーザーにのみ表示されます。また、ほとんどの広告は、制限が課せられた動画には掲載されず、クリエイターの収益が減少します。
YouTube のアルゴリズムがクリエイターの成功に大きな影響を与えるのはそのためです。つまり、視聴者の規模と収入を生み出すために使用できるコンテンツの両方です。
YouTube に対する最も顕著な差別訴訟の 2 つは、実際には、BIPOC および LGBTQ のクリエイターによる動画への制限に関係しています。
2020 年、アフリカ系アメリカ人のクリエーターは、YouTube の親会社であるアルファベットに対して集団訴訟を起こしました。彼らは、YouTube がそのアルゴリズムを使用して、「人種プロファイリング」、「BLM」、「警察の発砲」など、Black Lives Matter 運動に関連する用語を使用して動画にフラグを立てたと主張しました。その後、これらのビデオは制限付きモードに置かれました。
同様の訴訟は、2019年8月にすでにLGBTQのクリエイターによって提起されています。彼らは、タイトル、タグ、説明に「ゲイ」、「バイセクシュアル」、「トランスジェンダー」などの単語を使用するビデオは、しばしばフラグが立てられ、制限されると主張しました.
似たような苦情が最近出てきました。人気の黒人 YouTuber CoryxKenshin は、仲間が問題なくアップロードしたコンテンツを投稿するために YouTube のアルゴリズムの標的にされた経験を概説するビデオを投稿しました。
この論争は、最近リリースされたインディー ホラー ゲーム The Mortuary Assistant に関するものです。ゲーム YouTuber の間ですぐに人気を博し、CoryxKenshin を含む多くのユーザーがプレイスルーをアップロードしました。
ただし、他のクリエイターとは異なり、CoryxKenshin の動画は、YouTube が理由を伝えることなく、すぐに報告され、制限されました。
彼はその制限に上訴したが、それは却下された。あきらめず、彼は最終的に、自殺関連の画像を含むプレイスルーの最後のシーンのために制限が適用されていることを知りました.
問題?他の人気のある白人 YouTuber によるプレイスルーには、フラグが立てられることなく、まったく同じシーンが含まれていました。
その後、CoryxKenshin は YouTube に連絡を取り、もう一度制限を訴えましたが、今回は Markiplier による無制限のプレイスルーを議論として使用しました。
すぐに、彼のビデオに対する制限は解除されました。
CoryxKenshin は、人種差別とえこひいきに関する彼のビデオで、彼のコンテンツがトレンドになっているときにどれだけのコンテンツが制限されるかについても詳しく説明しています。彼が挙げた例は、彼が休止から戻った直後にトレンドになり始めた彼の古いビデオです.
アルゴリズムが偏りなく機能していれば、そのコンテンツはずっと前にフラグが付けられていたはずだと彼は主張します。このままでは、彼のチャンネルが意図的にターゲットにされているような印象を受けます。
YouTube のアルゴリズムにおける人種的偏見を示すもう 1 つの最近の証拠は、子供向けエンターテイメントのレビュー Web サイトである Common Sense Mediaによる調査から得られたものです。ミシガン大学と協力して、彼らは YouTube のアルゴリズムが若い視聴者向けにプッシュする子供向けコンテンツを見直しました。
このプラットフォームはユーザーが作成したコンテンツを備えているため、著者は、私たちが住んでいる多様な現実を表現する可能性がはるかに高いと主張しています。特に、BIPOC の表現にまだ苦労しているハリウッドのスタジオと比較して.
しかし、調査結果によると、9 歳未満の子供に人気のあるコンテンツの大部分 (62%) には、BIPOC のキャラクターがまったく登場しませんでした。多様なキャラクターを含む動画は、悪い言葉や暴力などのネガティブな要素を含む可能性が大幅に高かった.さらに、10 代の若者の間でバイラルな人気を得た動画の 10% は、人種的なステレオタイプを特徴としていました。
BIPOC クリエイターによるポジティブなコンテンツが存在しないというわけではありません。 YouTube は、そのアルゴリズムを通じてのみ宣伝に失敗します。
この調査の著者は、アルゴリズムが偏ったコンテンツを助長していると全面的に非難しているわけではありませんが、透明性を高め、子供向けのポジティブな BIPOC コンテンツを促進するために YouTube 側で意識的な取り組みを行うことを緊急に呼びかけています。
YouTube は、すでに大きな進歩を遂げており、ダイバーシティとインクルージョンを促進するために設計されたプログラミング イニシアチブの実装に取り組んでいると述べています。それにもかかわらず、効果はまだ作成者には明らかではないようです.
問題の一部は、YouTube やその他のソーシャル メディア プラットフォームが現在、通信品位法第 230 条のおかげで、広範囲にわたる法的保護を受けていることです。 1996 年に可決されたこの法律は、オンライン企業が他者によってアップロードされた資料の送信について責任を負わないことを規定しています。
1996 年のインターネットを覚えている人は、メッセージ ボード、ダイヤルアップ インターネット接続、MSN などの Google が登場する前の時代の法律が、今日の巨大なソーシャル メディア企業を規制していることを奇妙に思うかもしれません。多くの政治家がこれに同意し、法律を修正するイニシアチブを開始しました。これまでのところ、失敗しました。
2020 年と 2021 年にセクション 230 は、偏見を主張する LGBTQ とBIPOC の作成者による訴訟を打ち負かすために使用されました。
しかし今、米国最高裁判所は、セクション 230 への異議申し立てを審理することに同意しました。主要な議論の 1 つは、YouTube のようなソーシャル メディアの巨人は、アルゴリズムが特定のコンテンツを増幅し、そのメッセージを増幅するとすぐに、法律による保護を失うというものです。
セクション 230 がアルゴリズムの増幅に基づいて修正されるかどうか、またそれが多様なクリエイターが偏見と闘うのにどのように役立つかはまだわかりません。
現時点では、彼らができる最善のことは、アルゴリズムの不透明な仕組みと、マイノリティを代表するクリエイターに対して明白な偏見があるように見えるという事実を認識することです.そしてそれについて話すこと。
集団としてのこれらの不一致に関する経験を強調することにより、彼らは変化に貢献し、それらが起こることを可能にする法的枠組みに取り組む弁護士に議論を提供することができます.