이 문서는 CC BY 4.0 DEED 라이선스에 따라 arxiv에서 볼 수 있습니다 .
저자:
(1) 영국 서리대학교 에산 토레이니(Ehsan Toreini);
(2) 런던 로얄 홀로웨이 대학교 마리암 메흐네자드(Maryam Mehrnezhad);
(3) 버밍엄 대학교 Aad Van Moorsel.
본 논문에서는 알고리즘 공정성 계산을 위한 신뢰할 수 있는 서비스 아키텍처이자 보안 프로토콜인 FaaS(Fairness as a Service)를 제안합니다. FaaS는 ML 시스템에 원본 데이터 세트나 모델 정보를 공유하도록 요청하지 않고 공정성을 계산하는 서비스로 설계되었습니다. 대신, ML 시스템이 제공하는 데이터 기능의 값을 암호 형태로 암호화하여 표현해야 합니다. 우리는 프로토콜이 제대로 실행되도록 보장하기 위해 암호 내에서 비대화형 영지식 증명을 사용했습니다. 이러한 암호는 모든 사람이 ML 시스템의 공정성을 위해 계산의 정확성을 검사할 수 있도록 공개 공정성 게시판에 게시됩니다. 이는 연합 학습 접근 방식을 사용하는 다른 유사한 제안과 달리 개인 정보 보호를 유지하는 공정성 계산에 대한 새로운 접근 방식입니다. FaaS 아키텍처는 특정 기계 학습 모델이나 작업 공정성 측정 기준 정의에 의존하지 않습니다. 대신 원하는 모델과 선택한 공정성 지표를 자유롭게 배포할 수 있습니다.
본 논문에서 우리는 보안 프로토콜이 데이터의 프라이버시를 보장하고 모델 정보를 유출하지 않는다는 것을 증명했습니다. 이전 설계와 비교하여 우리 설계에 대한 신뢰는 ML 시스템에 의한 암호의 올바른 구성에 있습니다. 이는 ML 시스템의 많은 법적, 비즈니스 및 윤리적 요구 사항을 고려하여 신뢰할 수 있는 제3자에게 데이터에 대한 전체 액세스 권한을 제공하는 것보다 솔루션으로서 더 현실적입니다. 동시에 이는 ML 시스템에 대한 신뢰를 높이는 데 새로운 과제를 제시합니다. 암호화 구성에 대한 신뢰를 높이는 것은 제시된 프로토콜에 따른 흥미로운 연구 과제로 남아 있습니다.
우리는 FaaS 개념 증명을 구현하고 상용 하드웨어에 대한 성능 실험을 수행했습니다. 프로토콜은 데이터 포인트당 완료하는 데 몇 초가 걸리므로 데이터 포인트 수가 많은 경우(수만) 성능 문제가 있음을 보여줍니다. 성능 문제를 완화하기 위해 암호화 구성이 오프라인에서 수행될 수 있도록 보안 프로토콜이 준비됩니다. 암호문의 공정성 계산 성능은 향후 작업에서 해결해야 할 과제입니다. 우리는 FaaS와 제시된 기본 보안 프로토콜이 AI 알고리즘의 공정성을 계산하고 검증하는 새롭고 유망한 접근 방식을 제공한다고 믿습니다.