We investigate the convergence guarantee of two-layer neural network training with Gaussian randomly masked inputs. This scenario corresponds to Gaussian dropout at the input level, or noisy input training common in sensor networks, privacy-preserving training, and federated learning, where each user may have access to partial or corrupted features. Using a Neural Tangent Kernel (NTK) analysis, we demonstrate that training a two-layer ReLU network with Gaussian randomly masked inputs achieves linear convergence up to an error region proportional to the mask's variance. A key technical contribution is resolving the randomness within the non-linear activation, a problem of independent interest.


翻译:本研究探讨了在输入层采用高斯随机掩码的双层神经网络训练的收敛性保证。该场景对应于输入层的高斯丢弃操作,或传感器网络、隐私保护训练及联邦学习中常见的噪声输入训练,其中每个用户可能仅能获取部分或受损特征。通过神经正切核分析,我们证明了采用高斯随机掩码输入的双层ReLU网络训练能够实现线性收敛,其误差区域与掩码方差成正比。本研究的核心技术贡献在于解决了非线性激活函数内部的随机性问题,该问题本身具有独立的研究价值。

0
下载
关闭预览

相关内容

【TPAMI2022】双曲深度神经网络研究综述
专知会员服务
66+阅读 · 2021年12月29日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
35+阅读 · 2020年4月15日
深入卷积神经网络背后的数学原理
人工智能学家
10+阅读 · 2019年4月26日
神经网络可解释性最新进展
专知
18+阅读 · 2018年3月10日
【回顾】深度学习系列之二:卷积神经网络
AI研习社
20+阅读 · 2017年12月1日
基于注意力机制的图卷积网络
科技创新与创业
74+阅读 · 2017年11月8日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月16日
VIP会员
相关VIP内容
【TPAMI2022】双曲深度神经网络研究综述
专知会员服务
66+阅读 · 2021年12月29日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
35+阅读 · 2020年4月15日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员