paint-brush
Équité vérifiable : calcul de l'équité préservant la confidentialité pour les systèmes ML : conclusionpar@escholar
154 lectures

Équité vérifiable : calcul de l'équité préservant la confidentialité pour les systèmes ML : conclusion

Trop long; Pour lire

L'équité en tant que service (FaaS) révolutionne les audits algorithmiques d'équité en préservant la confidentialité sans accéder aux ensembles de données d'origine ou aux spécificités du modèle. Cet article présente FaaS comme un cadre fiable utilisant des cryptogrammes cryptés et des preuves de connaissances nulles. Les garanties de sécurité, la mise en œuvre d'une preuve de concept et les expériences de performances présentent le FaaS comme une voie prometteuse pour calculer et vérifier l'équité des algorithmes d'IA, répondant ainsi aux défis de confidentialité, de confiance et de performances.
featured image - Équité vérifiable : calcul de l'équité préservant la confidentialité pour les systèmes ML : conclusion
EScholar: Electronic Academic Papers for Scholars HackerNoon profile picture

Cet article est disponible sur arxiv sous licence CC BY 4.0 DEED.

Auteurs:

(1) Ehsan Toreini, Université du Surrey, Royaume-Uni ;

(2) Maryam Mehrnezhad, Université Royal Holloway de Londres ;

(3) Aad Van Moorsel, Université de Birmingham.

Tableau des liens

Résumé et introduction

Contexte et travaux connexes

Architecture FaaS

Analyse de la mise en œuvre et des performances

Conclusion

Remerciements et références

5. Conclusion

Cet article propose Fairness as a Service (FaaS), une architecture de service digne de confiance et un protocole sécurisé pour le calcul de l'équité algorithmique. FaaS est conçu comme un service qui calcule l'équité sans demander au système ML de partager l'ensemble de données d'origine ou les informations du modèle. Au lieu de cela, cela nécessite une représentation cryptée des valeurs des caractéristiques des données fournies par le système ML sous la forme de cryptogrammes. Nous avons utilisé des preuves zéro connaissance non interactives dans le cryptogramme pour garantir que le protocole est exécuté comme il se doit. Ces cryptogrammes sont affichés sur un tableau d'équité publique pour que chacun puisse inspecter l'exactitude des calculs pour l'équité du système ML. Il s'agit d'une nouvelle approche dans le calcul de l'équité préservant la confidentialité, car contrairement à d'autres propositions similaires qui utilisent une approche d'apprentissage fédéré, notre architecture FaaS ne s'appuie pas sur un modèle d'apprentissage automatique spécifique ou sur une définition de métrique d'équité pour son fonctionnement. Au lieu de cela, chacun a la liberté de déployer le modèle souhaité et la mesure d’équité de son choix.


Dans cet article, nous avons prouvé que le protocole de sécurité garantit la confidentialité des données et ne divulgue aucune information sur le modèle. Par rapport aux conceptions précédentes, la confiance dans notre conception réside dans la construction correcte du cryptogramme par le système ML. Cette solution est sans doute plus réaliste que de fournir un accès complet aux données au tiers de confiance, en tenant compte des nombreuses exigences juridiques, commerciales et éthiques des systèmes de ML. Dans le même temps, cela constitue un nouveau défi consistant à accroître la confiance que l’on a dans le système ML. Augmenter la confiance dans la construction des cryptogrammes reste un défi de recherche intéressant découlant du protocole présenté.


Nous avons mis en œuvre une preuve de concept de FaaS et mené des expériences de performances sur du matériel standard. Le protocole prend quelques secondes par point de données, démontrant ainsi les défis de performances si le nombre de points de données est important (des dizaines de milliers). Pour atténuer le problème de performances, le protocole de sécurité est organisé de telle sorte que la construction du cryptogramme puisse être effectuée hors ligne. La performance du calcul de l’équité à partir du cryptogramme est un défi à relever dans les travaux futurs. Dans l’ensemble, nous pensons que FaaS et le protocole de sécurité sous-jacent présenté offrent une approche nouvelle et prometteuse pour calculer et vérifier l’équité des algorithmes d’IA.