paint-brush
Überprüfbare Fairness: Datenschutzbewahrende Fairnessberechnung für ML-Systeme: Fazitby@escholar
139

Überprüfbare Fairness: Datenschutzbewahrende Fairnessberechnung für ML-Systeme: Fazit

Fairness as a Service (FaaS) revolutioniert algorithmische Fairness-Audits, indem es die Privatsphäre schützt, ohne auf Originaldatensätze oder Modellspezifikationen zuzugreifen. In diesem Artikel wird FaaS als vertrauenswürdiges Framework vorgestellt, das verschlüsselte Kryptogramme und Zero Knowledge Proofs verwendet. Sicherheitsgarantien, eine Proof-of-Concept-Implementierung und Leistungsexperimente zeigen, dass FaaS ein vielversprechender Weg zur Berechnung und Überprüfung der Fairness von KI-Algorithmen ist und Herausforderungen in Bezug auf Datenschutz, Vertrauen und Leistung angeht.
featured image - Überprüfbare Fairness: Datenschutzbewahrende Fairnessberechnung für ML-Systeme: Fazit
EScholar: Electronic Academic Papers for Scholars HackerNoon profile picture

Dieses Papier ist auf arxiv unter der CC BY 4.0 DEED-Lizenz verfügbar .

Autoren:

(1) Ehsan Toreini, University of Surrey, Großbritannien;

(2) Maryam Mehrnezhad, Royal Holloway University of London;

(3) Aad Van Moorsel, Universität Birmingham.

Linktabelle

Zusammenfassung und Einführung

Hintergrund und verwandte Arbeiten

FaaS-Architektur

Implementierung und Leistungsanalyse

Abschluss

Danksagung und Referenzen

5. Schlussfolgerung

In diesem Artikel wird Fairness as a Service (FaaS) vorgeschlagen, eine vertrauenswürdige Servicearchitektur und ein sicheres Protokoll zur Berechnung algorithmischer Fairness. FaaS ist als Dienst konzipiert, der die Fairness berechnet, ohne das ML-System aufzufordern, den Originaldatensatz oder die Modellinformationen weiterzugeben. Stattdessen ist eine verschlüsselte Darstellung der Werte der vom ML-System bereitgestellten Datenmerkmale in Form von Kryptogrammen erforderlich. Wir haben im Kryptogramm nicht interaktive Zero Knowledge Proofs verwendet, um sicherzustellen, dass das Protokoll ordnungsgemäß ausgeführt wird. Diese Kryptogramme werden auf einem öffentlichen Fairness-Board veröffentlicht, damit jeder die Richtigkeit der Berechnungen für die Fairness des ML-Systems überprüfen kann. Dies ist ein neuer Ansatz für die datenschutzschonende Berechnung der Fairness, da unsere FaaS-Architektur im Gegensatz zu anderen ähnlichen Vorschlägen, die den Ansatz des föderierten Lernens verwenden, für ihren Betrieb nicht auf einem bestimmten Modell für maschinelles Lernen oder einer Definition der Fairnessmetrik angewiesen ist. Stattdessen hat man die Freiheit, sein gewünschtes Modell und die Fairness-Metrik seiner Wahl einzusetzen.


In diesem Artikel haben wir bewiesen, dass das Sicherheitsprotokoll den Datenschutz gewährleistet und keine Modellinformationen preisgibt. Im Vergleich zu früheren Designs liegt das Vertrauen in unserem Design in der korrekten Konstruktion des Kryptogramms durch das ML-System. Unter Berücksichtigung der zahlreichen rechtlichen, geschäftlichen und ethischen Anforderungen von ML-Systemen ist dies wohl eine realistischere Lösung als die Gewährung vollständigen Zugriffs auf Daten für vertrauenswürdige Dritte. Gleichzeitig stellt dies eine neue Herausforderung dar, das Vertrauen in das ML-System zu stärken. Das wachsende Vertrauen in die Konstruktion der Kryptogramme bleibt eine interessante Forschungsherausforderung, die sich aus dem vorgestellten Protokoll ergibt.


Wir haben einen Proof-of-Concept von FaaS implementiert und Leistungsexperimente auf Standardhardware durchgeführt. Die Fertigstellung des Protokolls pro Datenpunkt dauert Sekunden, was zu Leistungsproblemen führt, wenn die Anzahl der Datenpunkte groß ist (Zehntausende). Um die Leistungsherausforderung abzumildern, ist das Sicherheitsprotokoll so gestaffelt, dass die Erstellung des Kryptogramms offline erfolgen kann. Die Leistung der Berechnung der Fairness anhand des Kryptogramms ist eine Herausforderung, die es in zukünftigen Arbeiten zu bewältigen gilt. Insgesamt glauben wir, dass FaaS und das vorgestellte zugrunde liegende Sicherheitsprotokoll einen neuen und vielversprechenden Ansatz zur Berechnung und Überprüfung der Fairness von KI-Algorithmen bieten.