paint-brush
Поддающаяся проверке честность: расчет справедливости для систем машинного обучения с сохранением конфиденциальности: заключениек@escholar
154 чтения

Поддающаяся проверке честность: расчет справедливости для систем машинного обучения с сохранением конфиденциальности: заключение

Слишком долго; Читать

«Справедливость как услуга» (FaaS) революционизирует алгоритмический аудит справедливости, сохраняя конфиденциальность без доступа к исходным наборам данных или особенностям модели. В этом документе FaaS представлен как надежная структура, использующая зашифрованные криптограммы и доказательства с нулевым разглашением. Гарантии безопасности, реализация концепции и эксперименты с производительностью демонстрируют FaaS как многообещающий способ расчета и проверки справедливости алгоритмов ИИ, решения проблем в области конфиденциальности, доверия и производительности.
featured image - Поддающаяся проверке честность: расчет справедливости для систем машинного обучения с сохранением конфиденциальности: заключение
EScholar: Electronic Academic Papers for Scholars HackerNoon profile picture

Этот документ доступен на arxiv под лицензией CC BY 4.0 DEED.

Авторы:

(1) Эхсан Торейни, Университет Суррея, Великобритания;

(2) Марьям Мехрнежад, Лондонский университет Ройал Холлоуэй;

(3) Аад Ван Мурсел, Бирмингемский университет.

Таблица ссылок

Аннотация и введение

Предыстория и сопутствующая работа

FaaS-архитектура

Анализ внедрения и производительности

Заключение

Благодарности и ссылки

5. Вывод

В этом документе предлагается «Справедливость как услуга» (FaaS), надежная архитектура обслуживания и безопасный протокол для расчета алгоритмической справедливости. FaaS спроектирован как сервис, который рассчитывает справедливость, не запрашивая у системы ML предоставления исходного набора данных или информации о модели. Вместо этого требуется зашифрованное представление значений функций данных, предоставляемых системой машинного обучения, в форме криптограмм. Мы использовали неинтерактивные доказательства с нулевым разглашением в криптограмме, чтобы гарантировать, что протокол выполняется должным образом. Эти криптограммы размещаются на общедоступной доске честности, чтобы каждый мог проверить правильность вычислений на предмет честности системы ML. Это новый подход к расчету справедливости с сохранением конфиденциальности, поскольку в отличие от других подобных предложений, использующих подход федеративного обучения, наша архитектура FaaS не полагается на конкретную модель машинного обучения или определение показателя справедливости для своей работы. Вместо этого у вас есть свобода применения желаемой модели и показателя справедливости по выбору.


В этой статье мы доказали, что протокол безопасности гарантирует конфиденциальность данных и не допускает утечки информации о модели. По сравнению с более ранними разработками, доверие к нашему проекту заключается в правильном построении криптограммы системой ML. Возможно, это более реалистичное решение, чем предоставление полного доступа к данным доверенной третьей стороне, принимая во внимание множество юридических, деловых и этических требований систем ML. В то же время это создает новую задачу по повышению доверия к системе ML. Повышение доверия к построению криптограмм остается интересной исследовательской задачей, вытекающей из представленного протокола.


Мы реализовали концепцию FaaS и провели эксперименты по производительности на обычном оборудовании. Для завершения протокола требуется несколько секунд на каждую точку данных, что приводит к проблемам с производительностью, если количество точек данных велико (десятки тысяч). Чтобы смягчить проблемы с производительностью, протокол безопасности организован таким образом, что построение криптограммы может выполняться в автономном режиме. Выполнение расчета справедливости на основе криптограммы — это задача, которую предстоит решить в будущей работе. В целом мы считаем, что FaaS и представленный базовый протокол безопасности обеспечивают новый и многообещающий подход к расчету и проверке честности алгоритмов ИИ.