Inherent client drifts caused by data heterogeneity, as well as vulnerability to Byzantine attacks within the system, hinder effective model training and convergence in federated learning (FL). This paper presents two new frameworks, named DiveRgence-based Adaptive aGgregation (DRAG) and Byzantine-Resilient DRAG (BR-DRAG), to mitigate client drifts and resist attacks while expediting training. DRAG designs a reference direction and a metric named divergence of degree to quantify the deviation of local updates. Accordingly, each worker can align its local update via linear calibration without extra communication cost. BR-DRAG refines DRAG under Byzantine attacks by maintaining a vetted root dataset at the server to produce trusted reference directions. The workers' updates can be then calibrated to mitigate divergence caused by malicious attacks. We analytically prove that DRAG and BR-DRAG achieve fast convergence for non-convex models under partial worker participation, data heterogeneity, and Byzantine attacks. Experiments validate the effectiveness of DRAG and its superior performance over state-of-the-art methods in handling client drifts, and highlight the robustness of BR-DRAG in maintaining resilience against data heterogeneity and diverse Byzantine attacks.


翻译:数据异质性导致的固有客户端漂移,以及系统对拜占庭攻击的脆弱性,阻碍了联邦学习(FL)中有效的模型训练与收敛。本文提出了两个新框架,分别命名为基于散度的自适应聚合(DRAG)和拜占庭鲁棒DRAG(BR-DRAG),以减轻客户端漂移并抵御攻击,同时加速训练。DRAG设计了一个参考方向和一个名为散度度的度量指标,用以量化本地更新的偏差。相应地,每个工作节点可以通过线性校准来对齐其本地更新,而无需额外的通信开销。BR-DRAG在拜占庭攻击下改进了DRAG,方法是在服务器端维护一个经过审查的根数据集以产生可信的参考方向。随后,工作节点的更新可以被校准,以减轻由恶意攻击引起的散度。我们通过分析证明,在部分工作节点参与、数据异质性和拜占庭攻击的情况下,DRAG和BR-DRAG能够实现非凸模型的快速收敛。实验验证了DRAG在处理客户端漂移方面的有效性及其优于现有先进方法的性能,并突显了BR-DRAG在保持对数据异质性和多种拜占庭攻击的鲁棒性方面的稳健性。

0
下载
关闭预览

相关内容

移动边缘网络中联邦学习效率优化综述
专知会员服务
49+阅读 · 2022年7月9日
专知会员服务
16+阅读 · 2021年7月7日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
92+阅读 · 2020年12月2日
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
20+阅读 · 2020年11月6日
领域自适应学习论文大列表
专知
71+阅读 · 2019年3月2日
基于数据的分布式鲁棒优化算法及其应用【附PPT与视频资料】
人工智能前沿讲习班
27+阅读 · 2018年12月13日
国家自然科学基金
332+阅读 · 2017年12月31日
国家自然科学基金
16+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
VIP会员
相关基金
国家自然科学基金
332+阅读 · 2017年12月31日
国家自然科学基金
16+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员