paint-brush
顔認識技術は有色人種の失敗率が心配なほど高い@mosesconcha
818 測定値
818 測定値

顔認識技術は有色人種の失敗率が心配なほど高い

Moses Concha4m2023/01/26
Read on Terminal Reader

長すぎる; 読むには

ルイジアナ州での最近の顔認識システムの使用により、ジョージア州出身の黒人、ランドール リードが身元を間違えて逮捕されました。地方当局は、顔認識技術を使用して、ニューオーリンズ郊外の店舗から財布を盗んだとして、彼をピン留めしました。リードは、__[進行中のトレンド](https://www.wired.com/story/wrongful-arrests-ai-derailed-3-mens-lives/?redirectURL=https%3A%2f%2Fwww.wired .com%2C%2A%20顔認識誤認-jail.html
featured image - 顔認識技術は有色人種の失敗率が心配なほど高い
Moses Concha HackerNoon profile picture

ルイジアナ州での最近の顔認識システムの使用により、ジョージア州出身の黒人、ランドール リードが身元を間違えて逮捕されました。地元当局は、顔認識技術を使用して、ニューオーリンズ郊外の店から財布を盗んだとして彼をピン留めしました。これは、まったく別の州にあるもので、Reid は持っていると主張しています。 一度もない一度行った。


リードは、 進行中の傾向過去数年間の顔認識技術 (FRT) による有色人種の同様の主要な誤認の数。


ニュージャージー州ウッドブリッジの警察が、2019 年初めに FRT によって評価された万引き容疑者の偽の ID を持っていた後、ニュージャージー州パターソンで 30 マイル離れた場所で働き、住んでいた Nijeer Parks が出動しました。 10日間の刑務所で、数千ドルを費やした犯罪から身を守るために、彼は関与していませんでした。事件の時に彼がウエスタンユニオンに送金したという証拠は、彼をフックから解放するのに役立ちました.

マイケル・オリバーは不当に告発された先生の電話を破壊しようとする2019 年 5 月にカメラで。教師によってキャプチャされたビデオ証拠に基づいて、 デトロイト警察が FRT を使用マイケル・オリバーを犯罪に結び付けるために、彼の弁護士が指摘した明らかな身体的違い(前腕の入れ墨や明るい肌の色など)が最終的に彼の不正行為を免除した.


2020 年 1 月、Robert Williams は、デトロイトの Shinola ストアから約 4,000 ドル相当の高級時計を盗んだビデオに捕まった後、1 日以上刑務所で過ごしました。彼の起訴は、犯行時に彼が 50 マイル離れた場所で Instagram Live で歌っていたことを新たな証拠が明らかにしてから 2 か月後に取り下げられました。


これらの事例は、過去 5 年間に米国で発生した有色人種の最も重大な誤認の一部です。それらは、顔認識技術の状態と、色の個人を効果的に識別して区別する能力を直接反映するものとして機能します。

問題の認識


顔認識技術は、重要な生体認証データ (さまざまな顔やその他の身体的特徴の写真) を評価するために与えられた上で成功するか、または衰退します。システムが受け取る一連のデータは、システム全体の全体的な有効性を最終的に決定するものです。


とはいえ、これらのシステムをサポートおよびトレーニングするために使用されるデータセットに問題の人種に関する最小限のデータが含まれている場合、これらのシステムは特定の人種に属する顔を認識できません。


Yashar Behzadi、CEO 兼創設者合成AI 、「特定の人口統計は、インターネット上の画像から収集されたものであろうと、他の従来の手段から収集されたものであろうと、これらのデータセットで過小評価されることがよくあります。その結果、AI を強化するために使用されるトレーニング データが不均衡になり、モデルの偏りが生じます。」


言い換えれば、有色人種に関する生体認証データが少ないほど、顔認識技術が有色人種を正しく識別できる可能性は低くなります。


のコンテンツ マーケティング担当者である Tatevik Baghdasaryan 氏によると、最近まで、FRT は「主に色白の個人が大半を占めるデータセットで開発およびテストされていました」。スーパーアノテーション.これにより、分析の範囲が大幅に制限され、よく記録された色白の人に比べて有色人種を識別しようとすると、はるかに多くのエラーが発生します。

「その結果、顔認識技術で使用されるアルゴリズムは、肌の色が濃く、鼻が広く、唇がふっくらしているなど、特定の顔の特徴を持つ人に対してパフォーマンスが低下します」とバグダサリアンは言います。 「これにより、偽陽性と偽陰性の割合が高くなります。」


たとえば、Joy Buolamwini と Timnit Gebru による 2018 年の画期的な研究では、FRT の主要な顔の特徴を分析する多くのアルゴリズムが、黒人女性を誤認することが知られていることがわかりました。 33%以上当時の。

世界中のFRT


顔認識技術は、テクノロジーの世界では非常に普及しており、現在、世界中のほぼ 100 か国で使用されています。


で有名なシンガポール。スマートネーションイニシアチブは、新興技術に精通しており、過去数十年間、一貫して技術革新の最前線に立っています。


2020 年後半、Smart Nation は顔認識機能ユーザーがさまざまな政府サービスにオンラインでアクセスできる、国の主要な個人認証システムであるSingPassに。それ以来、シンガポールは公共サービスへのアクセスを可能な限り便利かつシームレスにするために、FRT を採用するセルフサービス キオスクを全国に設置しました。


ただし、顔認識技術の使用が広く受け入れられるようになった一方で、その使用を制限したり、場合によっては完全に拒否したりする国はまだ少数です。ベルギーやルクセンブルグなどの国は後者のカテゴリーに分類され、FRT を完全に禁止することを選択しています。 他のヨーロッパ諸国追随し始めています。


アルゼンチンはユニークな例です。最初は両手を広げて技術を採用し、その後、国スタンスを変えた数人の不当な拘留につながった一連の誤認に対応して、物議を醸している技術について。

できること


現在、顔認識技術の最大の問題は、システムが受け取るデータの質と種類に起因することが明らかになりました。


システムのデータが多様な人口統計を代表していない場合 (たとえば、肌の色が薄い人のみのデータを含む)、またはシステムによって評価された画像の品質が低い場合 (ぼやけている、薄暗い、最適でない角度から撮影されているなど)。 . – 有色人種の誤検知などのエラーが発生する可能性がはるかに高くなります。


したがって、FRT に関するこの長年の問題に対する最も簡単な解決策は、さまざまな肌の色や顔の特徴を持つ人々を表す大量のデータを組み込むことです。


私たちが人々として、平等で公平に分配された正義の問題で私たちを支援するためにこの技術を信頼し、頼らなければならない場合、私たちができることは、顔認識の核となる問題と、顔認識が人々を適切に識別する能力にどのように影響するかについてもっと学ぶことです。色。