paint-brush
Công nghệ nhận dạng khuôn mặt có tỷ lệ thất bại cao đáng lo ngại ở người da màutừ tác giả@mosesconcha
818 lượt đọc
818 lượt đọc

Công nghệ nhận dạng khuôn mặt có tỷ lệ thất bại cao đáng lo ngại ở người da màu

từ tác giả Moses Concha4m2023/01/26
Read on Terminal Reader

dài quá đọc không nổi

Việc sử dụng các hệ thống nhận dạng khuôn mặt gần đây ở Louisiana đã dẫn đến việc bắt giữ nhầm danh tính của Randall Reid, một người đàn ông da đen đến từ Georgia. Chính quyền địa phương đã sử dụng công nghệ nhận dạng khuôn mặt để xác định anh ta vì tội ăn cắp ví từ một cửa hàng ở ngoại ô New Orleans – một cửa hàng ở một bang hoàn toàn khác. Reid lại là một __[xu hướng đang diễn ra](https://www.wired.com/story/wrongful-arrests-ai-derailed-3-mens-lives/?redirectURL=https%3A%2f%2Fwww.wired .com%2C%2A%20Facial-recognition-misidentify-jail.html
featured image - Công nghệ nhận dạng khuôn mặt có tỷ lệ thất bại cao đáng lo ngại ở người da màu
Moses Concha HackerNoon profile picture

Việc sử dụng gần đây các hệ thống nhận dạng khuôn mặt ở Louisiana đã dẫn đến việc bắt giữ nhầm danh tính của Randall Reid, một người đàn ông da đen đến từ Georgia. Chính quyền địa phương đã sử dụng công nghệ nhận dạng khuôn mặt để ghim anh ta vì tội ăn cắp ví từ một cửa hàng ở ngoại ô New Orleans – một vụ ở bang hoàn toàn riêng biệt mà Reid tuyên bố là có chưa từng đã từng đến.


Reid là một người khác trong một xu hướng đang diễn ra về những nhận dạng sai nghiêm trọng tương tự của những người da màu bằng công nghệ nhận dạng khuôn mặt (FRT) trong vài năm qua.


Sau khi cảnh sát ở Woodbridge, New Jersey có ID giả của một kẻ trộm cắp bị nghi ngờ do FRT đánh giá vào đầu năm 2019, Nijeer Parks, người đã làm việc và sống cách đó 30 dặm ở Paterson, NJ, đã phục vụ 10 ngày ngồi tù và tiêu hàng ngàn đô la bảo vệ mình trước một tội ác, anh ta không liên quan. Bằng chứng về việc anh ta gửi tiền tại Western Union vào thời điểm xảy ra vụ việc đã giúp anh ta thoát tội.

Michael Oliver đã bị buộc tội sai cố gắng phá hủy điện thoại của giáo viên trên camera vào tháng 5 năm 2019. Dựa trên bằng chứng video do giáo viên ghi lại, Cảnh sát Detroit đã sử dụng FRT để liên kết Michael Oliver với tội ác, mặc dù những khác biệt rõ ràng về thể chất mà luật sư của anh ta ghi nhận - chẳng hạn như hình xăm ở cánh tay và màu da sáng hơn - cuối cùng đã miễn trừ cho anh ta mọi hành vi sai trái.


Vào tháng 1 năm 2020, Robert Williams đã phải ngồi tù hơn một ngày sau khi bị cáo buộc quay video ăn cắp chiếc đồng hồ xa xỉ trị giá gần 4.000 đô la từ một cửa hàng Shinola ở Detroit. Hai tháng sau, anh ta bị buộc tội sau khi có bằng chứng mới cho thấy anh ta đang hát trên Instagram Live cách đó 50 dặm vào thời điểm phạm tội.


Những trường hợp này là một số trường hợp xác định sai người da màu nghiêm trọng nhất của Hoa Kỳ trong vòng 5 năm qua. Chúng đóng vai trò phản ánh trực tiếp trạng thái của các công nghệ nhận dạng khuôn mặt và khả năng phân biệt và phân biệt các cá nhân có màu sắc một cách hiệu quả.

Nhận ra vấn đề


Công nghệ nhận dạng khuôn mặt phát triển mạnh hoặc chùn bước dựa trên dữ liệu sinh trắc học quan trọng – ảnh chụp nhiều khuôn mặt và các đặc điểm vật lý khác – được đưa ra để đánh giá. Tập hợp dữ liệu mà hệ thống nhận được là thứ cuối cùng quyết định hiệu quả tổng thể của toàn bộ hệ thống.


Điều đó nói lên rằng, các hệ thống này không thể nhận dạng khuôn mặt của những người thuộc một chủng tộc cụ thể nếu bộ dữ liệu được sử dụng để hỗ trợ và đào tạo các hệ thống này chứa dữ liệu tối thiểu về chủng tộc được đề cập.


Yashar Behzadi, Giám đốc điều hành và người sáng lập của AI tổng hợp , cho biết, "Một số nhân khẩu học nhất định thường được trình bày dưới mức trong các bộ dữ liệu này, cho dù chúng được thu thập từ hình ảnh trên internet hay các phương tiện thông thường khác. Kết quả là dữ liệu đào tạo được sử dụng để cung cấp năng lượng cho AI trở nên mất cân bằng, dẫn đến sai lệch của mô hình."


Nói cách khác, càng có ít dữ liệu sinh trắc học về người da màu thì công nghệ nhận dạng khuôn mặt càng ít có khả năng xác định thành công người da màu.


Theo Tatevik Baghdasaryan, Nhà tiếp thị nội dung tại Siêu chú thích . Điều này hạn chế đáng kể phạm vi phân tích của họ, tạo ra nhiều lỗi hơn khi cố gắng xác định người da màu so với những người da trắng hơn, được ghi chép rõ ràng.

Baghdasaryan cho biết: “Kết quả là các thuật toán được sử dụng trong công nghệ nhận dạng khuôn mặt hoạt động kém hơn đối với những người có màu da sẫm hơn và các đặc điểm cụ thể trên khuôn mặt như mũi rộng hơn và môi đầy đặn hơn. “Điều này dẫn đến tỷ lệ dương tính giả và âm tính giả cao hơn.”


Chẳng hạn, một nghiên cứu mang tính bước ngoặt năm 2018 của Joy Buolamwini và Timnit Gebru đã phát hiện ra rằng nhiều thuật toán chịu trách nhiệm phân tích các đặc điểm chính trên khuôn mặt trong FRT đã được biết là xác định nhầm phụ nữ da đen hơn 33% của thời gian.

FRT vòng quanh thế giới


Công nghệ nhận dạng khuôn mặt đã trở nên khá phổ biến trong thế giới công nghệ và hiện đang được sử dụng bởi gần 100 quốc gia trên toàn cầu.


Singapore nổi tiếng với quốc gia thông minh sáng kiến, không còn xa lạ với các công nghệ mới nổi và luôn đi đầu trong đổi mới công nghệ trong vài thập kỷ qua.


Vào cuối năm 2020, Smart Nation đã thêm một tính năng nhận dạng khuôn mặt đến SingPass, hệ thống xác thực cá nhân chính của quốc gia nơi người dùng có thể truy cập trực tuyến các dịch vụ chính phủ khác nhau. Kể từ đó, Singapore cũng đã lắp đặt các ki-ốt tự phục vụ trên khắp đất nước sử dụng FRT nhằm nỗ lực tiếp cận các dịch vụ công cộng thuận tiện và liền mạch nhất có thể.


Tuy nhiên, trong khi việc sử dụng các công nghệ nhận dạng khuôn mặt đã được chấp nhận rộng rãi, vẫn còn một số quốc gia hạn chế sử dụng hoặc trong một số trường hợp từ chối hoàn toàn. Các quốc gia như Bỉ và Luxembourg rơi vào nhóm thứ hai, chọn cấm hoàn toàn FRT, với các nước châu Âu khác bắt đầu làm theo.


Argentina là một ví dụ độc đáo; một quốc gia ban đầu đã áp dụng công nghệ này với vòng tay rộng mở và sau đó thay đổi lập trường của nó về công nghệ gây tranh cãi để đối phó với một loạt các nhận dạng sai dẫn đến việc giam giữ sai một số người.

Những gì có thể được thực hiện?


Hiện tại, rõ ràng là các vấn đề lớn nhất của công nghệ nhận dạng khuôn mặt bắt nguồn từ chất lượng và loại dữ liệu mà hệ thống của nó nhận được.


Nếu dữ liệu của hệ thống không đại diện cho một nhóm nhân khẩu học đa dạng – chẳng hạn như chỉ bao gồm dữ liệu của những người có làn da sáng hơn – hoặc chất lượng hình ảnh do hệ thống đánh giá kém – mờ, thiếu sáng, được chụp từ các góc không tối ưu, v.v. .– các lỗi như dương tính giả ở người da màu có nhiều khả năng xảy ra hơn.


Do đó, giải pháp đơn giản nhất cho vấn đề lâu nay với FRT là kết hợp khối lượng dữ liệu cao hơn đại diện cho những người có nhiều tông màu da và đặc điểm khuôn mặt.


Nếu chúng ta, với tư cách là mọi người, phải tin tưởng và dựa vào công nghệ này để hỗ trợ chúng ta trong các vấn đề về công lý được phân phát bình đẳng và công bằng, thì điều tối thiểu chúng ta có thể làm là tìm hiểu thêm về các vấn đề cốt lõi của nhận dạng khuôn mặt và cách chúng ảnh hưởng đến khả năng xác định đúng người của nó. màu.