Deep learning models for radiology interpretation increasingly rely on multi-institutional data, yet privacy regulations and distribution shift across hospitals limit central data pooling. Federated learning (FL) allows hospitals to collaboratively train models without sharing raw images, but current FL algorithms typically assume a static data distribution. In practice, hospitals experience continual evolution in case mix, annotation protocols, and imaging devices, which leads to catastrophic forgetting when models are updated sequentially. Federated continual learning (FCL) aims to reconcile these challenges but existing methods either ignore the stringent privacy constraints of healthcare or rely on replay buffers and public surrogate datasets that are difficult to justify in clinical settings. We study FCL for chest radiography classification in a setting where hospitals are clients that receive temporally evolving streams of cases and labels. We introduce DP-FedEPC (Differentially Private Federated Elastic Prototype Consolidation), a method that combines elastic weight consolidation (EWC), prototype-based rehearsal, and client-side differential privacy within a standard FedAvg framework. EWC constrains updates along parameters deemed important for previous tasks, while a memory of latent prototypes preserves class structure without storing raw images. Differentially private stochastic gradient descent (DP-SGD) at each client adds calibrated Gaussian noise to clipped gradients, providing formal privacy guarantees for individual radiographs.


翻译:用于放射学判读的深度学习模型日益依赖于多机构数据,然而隐私法规和医院间的分布偏移限制了中心化数据池的构建。联邦学习(FL)允许医院在不共享原始图像的情况下协作训练模型,但现有FL算法通常假设数据分布是静态的。实际上,医院的病例构成、标注协议和成像设备都在持续演变,这导致模型在顺序更新时出现灾难性遗忘。联邦持续学习(FCL)旨在解决这些挑战,但现有方法要么忽视了医疗领域严格的隐私约束,要么依赖于在临床环境中难以合理实施的回放缓冲区和公共替代数据集。本研究针对胸片分类任务,在医疗机构作为客户端接收随时间演变的病例流和标注流的场景下,探索联邦持续学习方案。我们提出了DP-FedEPC(差分隐私联邦弹性原型巩固)方法,该方法在标准FedAvg框架中融合了弹性权重巩固(EWC)、基于原型的记忆重放和客户端差分隐私技术。EWC通过约束对先前任务重要参数的更新,而潜在原型记忆库则在不存储原始图像的情况下保持类别结构。每个客户端采用差分隐私随机梯度下降(DP-SGD),对裁剪后的梯度添加经过校准的高斯噪声,为个体放射影像提供形式化的隐私保障。

0
下载
关闭预览

相关内容

求医问药之所。
概述联邦持续学习最新研究进展
专知会员服务
31+阅读 · 2023年6月18日
联邦学习智慧医疗综述
专知会员服务
122+阅读 · 2021年11月27日
专知会员服务
94+阅读 · 2021年7月23日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
92+阅读 · 2020年12月2日
专知会员服务
113+阅读 · 2020年11月16日
专知会员服务
127+阅读 · 2020年8月7日
「联邦学习隐私保护 」最新2022研究综述
专知
16+阅读 · 2022年4月1日
联邦学习研究综述
专知
11+阅读 · 2021年12月25日
联邦学习安全与隐私保护研究综述
专知
12+阅读 · 2020年8月7日
国家自然科学基金
23+阅读 · 2016年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
概述联邦持续学习最新研究进展
专知会员服务
31+阅读 · 2023年6月18日
联邦学习智慧医疗综述
专知会员服务
122+阅读 · 2021年11月27日
专知会员服务
94+阅读 · 2021年7月23日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
92+阅读 · 2020年12月2日
专知会员服务
113+阅读 · 2020年11月16日
专知会员服务
127+阅读 · 2020年8月7日
相关基金
国家自然科学基金
23+阅读 · 2016年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员