paint-brush
Justiça verificável: cálculo de justiça que preserva a privacidade para sistemas de ML: conclusãopor@escholar
154 leituras

Justiça verificável: cálculo de justiça que preserva a privacidade para sistemas de ML: conclusão

Muito longo; Para ler

A justiça como serviço (FaaS) revoluciona as auditorias de justiça algorítmica, preservando a privacidade sem acessar conjuntos de dados originais ou especificações de modelos. Este artigo apresenta FaaS como uma estrutura confiável que emprega criptogramas criptografados e Zero Knowledge Proofs. Garantias de segurança, implementação de prova de conceito e experimentos de desempenho mostram o FaaS como um caminho promissor para calcular e verificar a imparcialidade em algoritmos de IA, enfrentando desafios de privacidade, confiança e desempenho.
featured image - Justiça verificável: cálculo de justiça que preserva a privacidade para sistemas de ML: conclusão
EScholar: Electronic Academic Papers for Scholars HackerNoon profile picture

Este artigo está disponível no arxiv sob licença CC BY 4.0 DEED.

Autores:

(1) Ehsan Toreini, Universidade de Surrey, Reino Unido;

(2) Maryam Mehrnezhad, Universidade Royal Holloway de Londres;

(3) Aad Van Moorsel, Universidade de Birmingham.

Tabela de links

Resumo e introdução

Antecedentes e Trabalhos Relacionados

Arquitetura FaaS

Implementação e Análise de Desempenho

Conclusão

Agradecimentos e Referências

5. Conclusão

Este artigo propõe Fairness as a Service (FaaS), uma arquitetura de serviço confiável e protocolo seguro para o cálculo de justiça algorítmica. O FaaS foi projetado como um serviço que calcula a justiça sem solicitar ao sistema de ML que compartilhe o conjunto de dados original ou as informações do modelo. Em vez disso, requer uma representação criptografada dos valores dos recursos de dados fornecidos pelo sistema de ML na forma de criptogramas. Usamos Provas de Conhecimento Zero não interativas dentro do criptograma para garantir que o protocolo seja executado como deveria. Esses criptogramas são publicados em um quadro público de imparcialidade para que todos possam inspecionar a exatidão dos cálculos para a imparcialidade do sistema de ML. Esta é uma nova abordagem na computação de justiça que preserva a privacidade, uma vez que, ao contrário de outras propostas semelhantes que usam abordagem de aprendizagem federada, nossa arquitetura FaaS não depende de um modelo específico de aprendizado de máquina ou de uma definição de métrica de justiça para sua operação. Em vez disso, tem-se a liberdade de implementar o modelo desejado e a métrica de justiça de escolha.


Neste artigo comprovamos que o protocolo de segurança garante a privacidade dos dados e não vaza nenhuma informação do modelo. Em comparação com projetos anteriores, a confiança em nosso projeto está na construção correta do criptograma pelo sistema ML. Indiscutivelmente, esta é uma solução mais realista do que fornecer acesso total aos dados a terceiros de confiança, tendo em conta os muitos requisitos legais, comerciais e éticos dos sistemas de BC. Ao mesmo tempo, isto representa um novo desafio para aumentar a confiança que se tem no sistema de ML. Aumentar a confiança na construção dos criptogramas continua a ser um desafio de investigação interessante na sequência do protocolo apresentado.


Implementamos uma prova de conceito de FaaS e conduzimos experimentos de desempenho em hardware comum. O protocolo leva segundos por ponto de dados para ser concluído, demonstrando assim desafios de desempenho se o número de pontos de dados for grande (dezenas de milhares). Para mitigar o desafio de desempenho, o protocolo de segurança é preparado de forma que a construção do criptograma possa ser feita off-line. A realização do cálculo de justiça do criptograma é um desafio a ser abordado em trabalhos futuros. Todos juntos, acreditamos que o FaaS e o protocolo de segurança subjacente apresentado fornecem uma abordagem nova e promissora para calcular e verificar a imparcialidade dos algoritmos de IA.