paint-brush
検証可能な公平性: ML システムのプライバシーを保護した公平性の計算: 結論@escholar
154 測定値

検証可能な公平性: ML システムのプライバシーを保護した公平性の計算: 結論

長すぎる; 読むには

Fairness as a Service (FaaS) は、元のデータセットやモデルの詳細にアクセスせずにプライバシーを保護することで、アルゴリズムの公平性監査に革命をもたらします。このペーパーでは、暗号化された暗号文とゼロ知識証明を採用した信頼できるフレームワークとして FaaS を紹介します。セキュリティの保証、概念実証の実装、パフォーマンス実験により、FaaS が AI アルゴリズムの公平性を計算および検証し、プライバシー、信頼、パフォーマンスの課題に対処するための有望な手段であることが示されています。
featured image - 検証可能な公平性: ML システムのプライバシーを保護した公平性の計算: 結論
EScholar: Electronic Academic Papers for Scholars HackerNoon profile picture

この論文は、CC BY 4.0 DEED ライセンスに基づいてarxiv で入手できます

著者:

(1) Ehsan Toreini、サリー大学、英国。

(2) マリアム・メエルネジハド、ロンドン・ロイヤル・ホロウェイ大学。

(3) アード・ヴァン・モールセル、バーミンガム大学。

リンク表

要約と紹介

背景と関連作品

FaaS アーキテクチャ

実装とパフォーマンス分析

結論

謝辞と参考文献

5。結論

この文書では、アルゴリズムの公平性を計算するための信頼できるサービス アーキテクチャおよび安全なプロトコルである Fairness as a Service (FaaS) を提案します。 FaaS は、ML システムに元のデータセットやモデル情報の共有を要求せずに公平性を計算するサービスとして設計されています。代わりに、ML システムによって暗号文の形式で配信されるデータ特徴の値の暗号化された表現が必要です。プロトコルが正しく実行されることを保証するために、暗号文内で非対話型のゼロ知識証明を使用しました。これらの暗号文は、ML システムの公平性のための計算の正しさを誰もが検査できるように、公開公平性委員会に投稿されます。これは、フェデレーテッド ラーニング アプローチを使用する他の同様の提案とは異なり、当社の FaaS アーキテクチャは、その操作に特定の機械学習モデルや公平性メトリクスの定義に依存しないため、プライバシーを保護しながら公平性を計算する新しいアプローチです。代わりに、希望するモデルと選択した公平性メトリクスを自由に展開できます。


この論文では、セキュリティ プロトコルがデータのプライバシーを保証し、モデル情報が漏洩しないことを証明しました。以前の設計と比較して、私たちの設計に対する信頼は、ML システムによる暗号文の正しい構築にあります。おそらく、ML システムの多くの法的、ビジネス的、倫理的要件を考慮すると、信頼できるサードパーティにデータへの完全なアクセスを提供するよりも、これがソリューションとしてより現実的です。同時に、これは ML システムに対する信頼を高める上で新たな課題をもたらします。暗号文の構築における信頼性を高めることは、提示されたプロトコルに続く興味深い研究課題として残っています。


FaaS の概念実証を実装し、汎用ハードウェアでパフォーマンス実験を実施しました。このプロトコルは、データ ポイントごとに完了するまでに数秒かかるため、データ ポイントの数が多い (数万) 場合、パフォーマンスの課題が発生することがわかります。パフォーマンスの課題を軽減するために、セキュリティ プロトコルは、暗号文の構築をオフラインで実行できるように段階的に設計されています。暗号文からの公平性の計算のパフォーマンスは、将来の作業で取り組むべき課題です。総合すると、FaaS と提示された基盤となるセキュリティ プロトコルは、AI アルゴリズムの公平性を計算および検証するための新しくて有望なアプローチを提供すると信じています。