paint-brush
Tính công bằng có thể kiểm chứng: Tính toán đảm bảo quyền riêng tư về tính công bằng cho các hệ thống ML: Kết luậnby@escholar
139

Tính công bằng có thể kiểm chứng: Tính toán đảm bảo quyền riêng tư về tính công bằng cho các hệ thống ML: Kết luận

Tính công bằng như một dịch vụ (FaaS) cách mạng hóa việc kiểm tra tính công bằng về mặt thuật toán bằng cách duy trì quyền riêng tư mà không cần truy cập vào tập dữ liệu gốc hoặc thông tin chi tiết về mô hình. Bài viết này trình bày FaaS như một khuôn khổ đáng tin cậy sử dụng mật mã được mã hóa và Bằng chứng kiến thức bằng không. Các đảm bảo về bảo mật, triển khai bằng chứng khái niệm và các thử nghiệm hiệu suất cho thấy FaaS là một con đường đầy hứa hẹn để tính toán và xác minh tính công bằng trong các thuật toán AI, giải quyết các thách thức về quyền riêng tư, độ tin cậy và hiệu suất.
featured image - Tính công bằng có thể kiểm chứng: Tính toán đảm bảo quyền riêng tư về tính công bằng cho các hệ thống ML: Kết luận
EScholar: Electronic Academic Papers for Scholars HackerNoon profile picture

Bài viết này có sẵn trên arxiv theo giấy phép CC BY 4.0 DEED.

tác giả:

(1) Ehsan Toreini, Đại học Surrey, Anh;

(2) Maryam Mehrnezhad, Đại học Hoàng gia Holloway Luân Đôn;

(3) Aad Van Moorsel, Đại học Birmingham.

Bảng liên kết

Tóm tắt & Giới thiệu

Bối cảnh và công việc liên quan

Kiến trúc FaaS

Phân tích thực hiện và hiệu suất

Phần kết luận

Lời cảm ơn và tài liệu tham khảo

5. Kết luận

Bài viết này đề xuất Tính công bằng như một dịch vụ (FaaS), một kiến trúc dịch vụ đáng tin cậy và giao thức an toàn để tính toán tính công bằng về mặt thuật toán. FaaS được thiết kế như một dịch vụ tính toán tính công bằng mà không yêu cầu hệ thống ML chia sẻ thông tin mô hình hoặc tập dữ liệu gốc. Thay vào đó, nó yêu cầu biểu diễn được mã hóa các giá trị của các tính năng dữ liệu do hệ thống ML cung cấp dưới dạng mật mã. Chúng tôi đã sử dụng Bằng chứng kiến thức không tương tác trong mật mã để đảm bảo rằng giao thức được thực thi như bình thường. Các mật mã này được đăng trên bảng công bằng công khai để mọi người kiểm tra tính chính xác của các tính toán về tính công bằng của hệ thống ML. Đây là một cách tiếp cận mới trong tính toán bảo đảm quyền riêng tư về tính công bằng vì không giống như các đề xuất tương tự khác sử dụng phương pháp học tập liên kết, kiến trúc FaaS của chúng tôi không dựa vào mô hình học máy cụ thể hoặc định nghĩa số liệu công bằng cho hoạt động của nó. Thay vào đó, người ta có quyền tự do triển khai mô hình mong muốn của mình và thước đo lựa chọn công bằng.


Trong bài báo này, chúng tôi đã chứng minh rằng giao thức bảo mật đảm bảo tính riêng tư của dữ liệu và không rò rỉ bất kỳ thông tin mô hình nào. So với các thiết kế trước đó, niềm tin vào thiết kế của chúng tôi nằm ở việc hệ thống ML xây dựng chính xác mật mã. Có thể cho rằng, đây là một giải pháp thực tế hơn là cung cấp quyền truy cập đầy đủ vào dữ liệu cho bên thứ ba đáng tin cậy, có tính đến nhiều yêu cầu pháp lý, kinh doanh và đạo đức của hệ thống ML. Đồng thời, điều này mang đến một thách thức mới trong việc tăng cường niềm tin của người ta vào hệ thống ML. Việc tăng cường niềm tin vào việc xây dựng các mật mã vẫn là một thách thức nghiên cứu thú vị sau giao thức được trình bày.


Chúng tôi đã triển khai bằng chứng khái niệm về FaaS và tiến hành thử nghiệm hiệu suất trên phần cứng thông thường. Giao thức mất vài giây cho mỗi điểm dữ liệu để hoàn thành, do đó thể hiện những thách thức về hiệu suất nếu số lượng điểm dữ liệu lớn (hàng chục nghìn). Để giảm thiểu thách thức về hiệu suất, giao thức bảo mật được tổ chức sao cho việc xây dựng mật mã có thể được thực hiện ngoại tuyến. Hiệu suất tính toán tính công bằng từ mật mã là một thách thức cần giải quyết trong công việc trong tương lai. Nhìn chung, chúng tôi tin rằng FaaS và giao thức bảo mật cơ bản được trình bày sẽ cung cấp một cách tiếp cận mới và đầy hứa hẹn để tính toán và xác minh tính công bằng của các thuật toán AI.