paint-brush
Equidad verificable: Cálculo de equidad que preserva la privacidad para sistemas de aprendizaje automático: Conclusiónby@escholar
134

Equidad verificable: Cálculo de equidad que preserva la privacidad para sistemas de aprendizaje automático: Conclusión

La equidad como servicio (FaaS) revoluciona las auditorías algorítmicas de equidad al preservar la privacidad sin acceder a conjuntos de datos originales o detalles del modelo. Este artículo presenta FaaS como un marco confiable que emplea criptogramas cifrados y pruebas de conocimiento cero. Las garantías de seguridad, una implementación de prueba de concepto y experimentos de rendimiento muestran a FaaS como una vía prometedora para calcular y verificar la equidad en los algoritmos de IA, abordando desafíos en materia de privacidad, confianza y rendimiento.
featured image - Equidad verificable: Cálculo de equidad que preserva la privacidad para sistemas de aprendizaje automático: Conclusión
EScholar: Electronic Academic Papers for Scholars HackerNoon profile picture

Este documento está disponible en arxiv bajo licencia CC BY 4.0 DEED.

Autores:

(1) Ehsan Toreini, Universidad de Surrey, Reino Unido;

(2) Maryam Mehrnezhad, Universidad Royal Holloway de Londres;

(3) Aad Van Moorsel, Universidad de Birmingham.

Tabla de enlaces

Resumen e introducción

Antecedentes y trabajos relacionados

Arquitectura FaaS

Análisis de implementación y desempeño

Conclusión

Reconocimientos y Referencias

5. Conclusión

Este artículo propone Fairness as a Service (FaaS), una arquitectura de servicio confiable y un protocolo seguro para el cálculo de la equidad algorítmica. FaaS está diseñado como un servicio que calcula la equidad sin pedirle al sistema ML que comparta el conjunto de datos original o la información del modelo. En cambio, requiere una representación cifrada de los valores de las características de datos entregadas por el sistema ML en forma de criptogramas. Utilizamos pruebas de conocimiento cero no interactivas dentro del criptograma para garantizar que el protocolo se ejecute como debería. Estos criptogramas se publican en un tablero de equidad pública para que todos puedan inspeccionar la exactitud de los cálculos para la equidad del sistema de ML. Este es un nuevo enfoque en el cálculo de la equidad que preserva la privacidad, ya que a diferencia de otras propuestas similares que utilizan un enfoque de aprendizaje federado, nuestra arquitectura FaaS no depende de un modelo de aprendizaje automático específico ni de una definición de métrica de equidad para su funcionamiento. En cambio, uno tiene la libertad de implementar el modelo deseado y la métrica de equidad de su elección.


En este artículo demostramos que el protocolo de seguridad garantiza la privacidad de los datos y no filtra ninguna información del modelo. En comparación con diseños anteriores, la confianza en nuestro diseño está en la correcta construcción del criptograma por parte del sistema ML. Podría decirse que esto es una solución más realista que proporcionar acceso completo a los datos al tercero de confianza, teniendo en cuenta los numerosos requisitos legales, comerciales y éticos de los sistemas de aprendizaje automático. Al mismo tiempo, esto supone un nuevo desafío para aumentar la confianza que se tiene en el sistema de aprendizaje automático. Aumentar la confianza en la construcción de criptogramas sigue siendo un desafío de investigación interesante a raíz del protocolo presentado.


Implementamos una prueba de concepto de FaaS y realizamos experimentos de rendimiento en hardware básico. El protocolo tarda unos segundos en completarse por punto de datos, lo que demuestra en los desafíos de rendimiento si la cantidad de puntos de datos es grande (decenas de miles). Para mitigar el desafío de rendimiento, el protocolo de seguridad está preparado de manera que la construcción del criptograma se pueda realizar fuera de línea. La realización del cálculo de equidad a partir del criptograma es un desafío a abordar en trabajos futuros. En conjunto, creemos que FaaS y el protocolo de seguridad subyacente presentado proporcionan un enfoque nuevo y prometedor para calcular y verificar la equidad de los algoritmos de IA.