Fairness monitoring is critical for detecting algorithmic bias, as mandated by the EU AI Act. Since such monitoring requires sensitive user data (e.g., ethnicity), the AI Act permits its processing only with strict privacy measures, such as multi-party computation (MPC), in compliance with the GDPR. However, the effectiveness of such secure monitoring protocols ultimately depends on people's willingness to share their data. Little is known about how different MPC protocol designs shape user acceptance. To address this, we conducted an online survey with 833 participants in Europe, examining user acceptance of various MPC protocol designs for fairness monitoring. Findings suggest that users prioritized risk-related attributes (e.g., privacy protection mechanism) in direct evaluation but benefit-related attributes (e.g., fairness objective) in simulated choices, with acceptance shaped by their fairness and privacy orientations. We derive implications for deploying and communicating privacy-preserving protocols in ways that foster informed consent and align with user expectations.


翻译:公平性监测对于检测算法偏见至关重要,欧盟《人工智能法案》已对此作出强制要求。由于此类监测需要处理敏感用户数据(如种族信息),《人工智能法案》仅允许在符合《通用数据保护条例》的前提下,采用严格隐私保护措施(如多方计算)进行处理。然而,此类安全监测协议的实际有效性最终取决于人们共享数据的意愿。目前关于不同多方计算协议设计如何影响用户接受度的研究尚不充分。为此,我们在欧洲开展了涉及833名参与者的在线调查,系统考察了用户对多种多方计算协议设计在公平性监测场景中的接受度。研究发现:用户在直接评估时更关注风险相关属性(如隐私保护机制),而在模拟选择中更重视效益相关属性(如公平性目标),其接受度同时受到个体公平取向与隐私取向的塑造。本研究为隐私保护协议的部署与传播提供了重要启示,提出了既能促进知情同意又符合用户期望的实施路径。

0
下载
关闭预览

相关内容

工程可信赖的机器学习运维——基于零知识证明
专知会员服务
9+阅读 · 2025年5月27日
计算机视觉中的公平性与偏差缓解:综述
专知会员服务
19+阅读 · 2024年8月7日
人工智能模型中公平性追求的综述
专知会员服务
22+阅读 · 2024年3月30日
【MIT博士论文】序列决策中的算法公平性,134页pdf
专知会员服务
25+阅读 · 2023年5月20日
专知会员服务
38+阅读 · 2021年10月19日
可信机器学习的公平性综述
专知会员服务
69+阅读 · 2021年2月23日
专知会员服务
30+阅读 · 2021年2月21日
联邦学习安全与隐私保护研究综述
专知
12+阅读 · 2020年8月7日
对比自监督学习
深度学习自然语言处理
35+阅读 · 2020年7月15日
用深度学习揭示数据的因果关系
专知
28+阅读 · 2019年5月18日
干货 | 基于深度学习的目标检测算法综述(二)
AI科技评论
21+阅读 · 2018年8月20日
腾讯:机器学习构建通用的数据异常检测平台
全球人工智能
11+阅读 · 2018年5月1日
边缘计算应用:传感数据异常实时检测算法
计算机研究与发展
11+阅读 · 2018年4月10日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月13日
VIP会员
相关VIP内容
工程可信赖的机器学习运维——基于零知识证明
专知会员服务
9+阅读 · 2025年5月27日
计算机视觉中的公平性与偏差缓解:综述
专知会员服务
19+阅读 · 2024年8月7日
人工智能模型中公平性追求的综述
专知会员服务
22+阅读 · 2024年3月30日
【MIT博士论文】序列决策中的算法公平性,134页pdf
专知会员服务
25+阅读 · 2023年5月20日
专知会员服务
38+阅读 · 2021年10月19日
可信机器学习的公平性综述
专知会员服务
69+阅读 · 2021年2月23日
专知会员服务
30+阅读 · 2021年2月21日
相关资讯
联邦学习安全与隐私保护研究综述
专知
12+阅读 · 2020年8月7日
对比自监督学习
深度学习自然语言处理
35+阅读 · 2020年7月15日
用深度学习揭示数据的因果关系
专知
28+阅读 · 2019年5月18日
干货 | 基于深度学习的目标检测算法综述(二)
AI科技评论
21+阅读 · 2018年8月20日
腾讯:机器学习构建通用的数据异常检测平台
全球人工智能
11+阅读 · 2018年5月1日
边缘计算应用:传感数据异常实时检测算法
计算机研究与发展
11+阅读 · 2018年4月10日
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员