Modern deep learning techniques focus on extracting intricate information from data to achieve accurate predictions. However, the training datasets may be crowdsourced and include sensitive information, such as personal contact details, financial data, and medical records. As a result, there is a growing emphasis on developing privacy-preserving training algorithms for neural networks that maintain good performance while preserving privacy. In this paper, we investigate the generalization and privacy performances of the differentially private gradient descent (DP-GD) algorithm, which is a private variant of the gradient descent (GD) by incorporating additional noise into the gradients during each iteration. Moreover, we identify a concrete learning task where DP-GD can achieve superior generalization performance compared to GD in training two-layer Huberized ReLU convolutional neural networks (CNNs). Specifically, we demonstrate that, under mild conditions, a small signal-to-noise ratio can result in GD producing training models with poor test accuracy, whereas DP-GD can yield training models with good test accuracy and privacy guarantees if the signal-to-noise ratio is not too small. This indicates that DP-GD has the potential to enhance model performance while ensuring privacy protection in certain learning tasks. Numerical simulations are further conducted to support our theoretical results.


翻译:现代深度学习技术侧重于从数据中提取复杂信息以实现精准预测。然而,训练数据集可能通过众包方式收集,并包含敏感信息,如个人联系方式、财务数据和医疗记录。因此,开发在保护隐私的同时保持良好性能的神经网络隐私保护训练算法日益受到重视。本文研究了差分隐私梯度下降(DP-GD)算法的泛化性与隐私保护性能,该算法通过在每次迭代中向梯度添加额外噪声,成为梯度下降(GD)的隐私保护变体。此外,我们确定了一个具体的学习任务,其中在训练双层Huber化ReLU卷积神经网络(CNNs)时,DP-GD能够获得优于GD的泛化性能。具体而言,我们证明在温和条件下,较小的信噪比会导致GD产生测试精度较差的训练模型,而如果信噪比不过小,DP-GD则能产生具有良好测试精度和隐私保证的训练模型。这表明在某些学习任务中,DP-GD在确保隐私保护的同时具有提升模型性能的潜力。我们进一步通过数值模拟验证了理论结果。

0
下载
关闭预览

相关内容

通用动力公司(General Dynamics)是一家美国的国防企业集团。2008年时通用动力是世界第五大国防工业承包商。由于近年来不断的扩充和并购其他公司,通用动力现今的组成与面貌已与冷战时期时大不相同。现今通用动力包含三大业务集团:海洋、作战系统和资讯科技集团。
图神经网络泛化理论研究综述
专知会员服务
24+阅读 · 2025年3月22日
【DTU博士论文】结构化表示学习的泛化
专知会员服务
53+阅读 · 2023年4月27日
深度学习模型可解释性的研究进展
专知
26+阅读 · 2020年8月1日
深度强化学习简介
专知
30+阅读 · 2018年12月3日
直白介绍卷积神经网络(CNN)
Python开发者
25+阅读 · 2018年4月8日
【深度学习】深度学习的核心:掌握训练数据的方法
产业智能官
12+阅读 · 2018年1月14日
深度学习之CNN简介
Python技术博文
20+阅读 · 2018年1月10日
从浅层模型到深度模型:概览机器学习优化算法
机器之心
27+阅读 · 2017年7月9日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
39+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
19+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
VIP会员
相关资讯
深度学习模型可解释性的研究进展
专知
26+阅读 · 2020年8月1日
深度强化学习简介
专知
30+阅读 · 2018年12月3日
直白介绍卷积神经网络(CNN)
Python开发者
25+阅读 · 2018年4月8日
【深度学习】深度学习的核心:掌握训练数据的方法
产业智能官
12+阅读 · 2018年1月14日
深度学习之CNN简介
Python技术博文
20+阅读 · 2018年1月10日
从浅层模型到深度模型:概览机器学习优化算法
机器之心
27+阅读 · 2017年7月9日
相关基金
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
39+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
19+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员