paint-brush
可验证的公平性:机器学习系统的隐私保护公平性计算:结论经过@escholar
154 讀數

可验证的公平性:机器学习系统的隐私保护公平性计算:结论

太長; 讀書

公平即服务 (FaaS) 通过在不访问原始数据集或模型细节的情况下保护隐私,彻底改变了算法公平性审计。本文将 FaaS 介绍为一种采用加密密码和零知识证明的值得信赖的框架。安全保证、概念验证实施和性能实验展示了 FaaS 作为计算和验证人工智能算法公平性、解决隐私、信任和性能挑战的有前途的途径。
featured image - 可验证的公平性:机器学习系统的隐私保护公平性计算:结论
EScholar: Electronic Academic Papers for Scholars HackerNoon profile picture

本文可在 arxiv 上根据 CC BY 4.0 DEED 许可获取

作者:

(1) Ehsan Toreini,英国萨里大学;

(2) Maryam Mehrnezhad,伦敦大学皇家霍洛威学院;

(3) Aad Van Moorsel,伯明翰大学。

链接表

摘要与简介

背景及相关工作

FaaS架构

实施和性能分析

结论

致谢和参考文献

5 结论

本文提出了公平即服务(FaaS),这是一种用于算法公平性计算的可信服务架构和安全协议。 FaaS 被设计为一种计算公平性的服务,无需要求 ML 系统共享原始数据集或模型信息。相反,它需要机器学习系统以密码形式提供的数据特征值的加密表示。我们在密码中使用非交互式零知识证明来确保协议按其应有的方式执行。这些密码被发布在公共公平板上,供每个人检查计算的正确性,以保证机器学习系统的公平性。这是隐私保护公平性计算的一种新方法,因为与使用联邦学习方法的其他类似提案不同,我们的 FaaS 架构不依赖于特定的机器学习模型或公平性度量定义来进行操作。相反,人们可以自由地部署他们想要的模型和选择的公平性指标。


在本文中我们证明了该安全协议保证了数据的隐私性并且不会泄露任何模型信息。与早期的设计相比,我们的设计的信任在于机器学习系统对密码的正确构造。可以说,考虑到机器学习系统的许多法律、商业和道德要求,这作为一种解决方案比向受信任的第三方提供对数据的完全访问权限更为现实。与此同时,这也为增强人们对机器学习系统的信任带来了新的挑战。根据所提出的协议,增加对密码构造的信任仍然是一个有趣的研究挑战。


我们实施了 FaaS 的概念验证,并在商用硬件上进行了性能实验。该协议每个数据点需要几秒钟才能完成,因此如果数据点数量很大(数万个),就会面临性能挑战。为了缓解性能挑战,安全协议的分级使得密码的构建可以离线完成。从密码计算公平性的性能是未来工作中需要解决的挑战。总之,我们相信 FaaS 和所提出的底层安全协议为计算和验证人工智能算法的公平性提供了一种新的、有前途的方法。