この論文は、CC BY 4.0 DEED ライセンスに基づいてarxiv で入手できます。
著者:
(1) Ehsan Toreini、サリー大学、英国。
(2) マリアム・メエルネジハド、ロンドン・ロイヤル・ホロウェイ大学。
(3) アード・ヴァン・モールセル、バーミンガム大学。
この文書では、アルゴリズムの公平性を計算するための信頼できるサービス アーキテクチャおよび安全なプロトコルである Fairness as a Service (FaaS) を提案します。 FaaS は、ML システムに元のデータセットやモデル情報の共有を要求せずに公平性を計算するサービスとして設計されています。代わりに、ML システムによって暗号文の形式で配信されるデータ特徴の値の暗号化された表現が必要です。プロトコルが正しく実行されることを保証するために、暗号文内で非対話型のゼロ知識証明を使用しました。これらの暗号文は、ML システムの公平性のための計算の正しさを誰もが検査できるように、公開公平性委員会に投稿されます。これは、フェデレーテッド ラーニング アプローチを使用する他の同様の提案とは異なり、当社の FaaS アーキテクチャは、その操作に特定の機械学習モデルや公平性メトリクスの定義に依存しないため、プライバシーを保護しながら公平性を計算する新しいアプローチです。代わりに、希望するモデルと選択した公平性メトリクスを自由に展開できます。
この論文では、セキュリティ プロトコルがデータのプライバシーを保証し、モデル情報が漏洩しないことを証明しました。以前の設計と比較して、私たちの設計に対する信頼は、ML システムによる暗号文の正しい構築にあります。おそらく、ML システムの多くの法的、ビジネス的、倫理的要件を考慮すると、信頼できるサードパーティにデータへの完全なアクセスを提供するよりも、これがソリューションとしてより現実的です。同時に、これは ML システムに対する信頼を高める上で新たな課題をもたらします。暗号文の構築における信頼性を高めることは、提示されたプロトコルに続く興味深い研究課題として残っています。
FaaS の概念実証を実装し、汎用ハードウェアでパフォーマンス実験を実施しました。このプロトコルは、データ ポイントごとに完了するまでに数秒かかるため、データ ポイントの数が多い (数万) 場合、パフォーマンスの課題が発生することがわかります。パフォーマンスの課題を軽減するために、セキュリティ プロトコルは、暗号文の構築をオフラインで実行できるように段階的に設計されています。暗号文からの公平性の計算のパフォーマンスは、将来の作業で取り組むべき課題です。総合すると、FaaS と提示された基盤となるセキュリティ プロトコルは、AI アルゴリズムの公平性を計算および検証するための新しくて有望なアプローチを提供すると信じています。