Federated learning enables collaborative model training across distributed institutions without centralizing sensitive data; however, ensuring algorithmic fairness across heterogeneous data distributions while preserving privacy remains fundamentally unresolved. This paper introduces CryptoFair-FL, a novel cryptographic framework providing the first verifiable fairness guarantees for federated learning systems under formal security definitions. The proposed approach combines additively homomorphic encryption with secure multi-party computation to enable privacy-preserving verification of demographic parity and equalized odds metrics without revealing protected attribute distributions or individual predictions. A novel batched verification protocol reduces computational complexity from BigO(n^2) to BigO(n \log n) while maintaining (\dparam, \deltap)-differential privacy with dparam = 0.5 and deltap = 10^{-6}. Theoretical analysis establishes information-theoretic lower bounds on the privacy cost of fairness verification, demonstrating that the proposed protocol achieves near-optimal privacy-fairness tradeoffs. Comprehensive experiments across four benchmark datasets (MIMIC-IV healthcare records, Adult Income, CelebA, and a novel FedFair-100 benchmark) demonstrate that CryptoFair-FL reduces fairness violations from 0.231 to 0.031 demographic parity difference while incurring only 2.3 times computational overhead compared to standard federated averaging. The framework successfully defends against attribute inference attacks, maintaining adversarial success probability below 0.05 across all tested configurations. These results establish a practical pathway for deploying fairness-aware federated learning in regulated industries requiring both privacy protection and algorithmic accountability.


翻译:联邦学习使得分布式机构能够在不集中敏感数据的情况下进行协作模型训练;然而,在保护隐私的同时确保跨异构数据分布的算法公平性,仍然是一个尚未根本解决的难题。本文提出了CryptoFair-FL,一种新颖的密码学框架,为联邦学习系统在形式化安全定义下提供了首个可验证的公平性保证。该方法结合了加法同态加密与安全多方计算,使得能够在保护隐私的前提下,对人口统计均等和机会均等等公平性指标进行验证,而无需暴露受保护属性的分布或个体预测结果。一种新颖的批量验证协议将计算复杂度从O(n²)降低至O(n log n),同时保持(ε, δ)-差分隐私,其中ε = 0.5,δ = 10⁻⁶。理论分析建立了公平性验证隐私代价的信息论下界,证明了所提协议实现了接近最优的隐私-公平权衡。在四个基准数据集(MIMIC-IV医疗记录、Adult Income、CelebA以及新颖的FedFair-100基准)上的综合实验表明,与标准的联邦平均算法相比,CryptoFair-FL将人口统计均等差异从0.231降低至0.031,同时仅产生2.3倍的计算开销。该框架成功抵御了属性推断攻击,在所有测试配置下将对抗成功率维持在0.05以下。这些结果为在需要隐私保护和算法问责的受监管行业中部署公平感知的联邦学习,确立了一条可行的实践路径。

0
下载
关闭预览

相关内容

「联邦学习模型安全与隐私」研究进展
专知会员服务
69+阅读 · 2022年9月24日
「联邦学习隐私保护 」最新2022研究综述
专知会员服务
117+阅读 · 2022年4月1日
专知会员服务
94+阅读 · 2021年7月23日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
92+阅读 · 2020年12月2日
专知会员服务
113+阅读 · 2020年11月16日
专知会员服务
127+阅读 · 2020年8月7日
「联邦学习隐私保护 」最新2022研究综述
专知
16+阅读 · 2022年4月1日
联邦学习研究综述
专知
11+阅读 · 2021年12月25日
联邦学习安全与隐私保护研究综述
专知
12+阅读 · 2020年8月7日
【资源】联邦学习相关文献资源大列表
专知
10+阅读 · 2020年2月25日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员