Understanding the structure of loss landscape of deep neural networks (DNNs)is obviously important. In this work, we prove an embedding principle that the loss landscape of a DNN "contains" all the critical points of all the narrower DNNs. More precisely, we propose a critical embedding such that any critical point, e.g., local or global minima, of a narrower DNN can be embedded to a critical point/hyperplane of the target DNN with higher degeneracy and preserving the DNN output function. The embedding structure of critical points is independent of loss function and training data, showing a stark difference from other nonconvex problems such as protein-folding. Empirically, we find that a wide DNN is often attracted by highly-degenerate critical points that are embedded from narrow DNNs. The embedding principle provides an explanation for the general easy optimization of wide DNNs and unravels a potential implicit low-complexity regularization during the training. Overall, our work provides a skeleton for the study of loss landscape of DNNs and its implication, by which a more exact and comprehensive understanding can be anticipated in the near


翻译:理解深神经网络的损失结构显然很重要。 在这项工作中,我们证明一个嵌入原则,即一个DNN“包含”所有较窄的DNN的所有临界点。更确切地说,我们建议一个关键嵌入点,以便一个较窄的DNN的局部或全球微型点能够嵌入目标DNN的临界点/高空,其降解性较高并保存DNN输出功能。关键点的嵌入结构独立于损失功能和培训数据,显示出与蛋白质折叠等其他非蛋白质问题之间的鲜明区别。我们偶然地发现,一个宽的DNNN常常被从狭小的DNN中嵌入的高度衰减临界点所吸引。 嵌入原则为广的DNNNN一般容易优化提供了解释,并揭示了培训期间潜在的隐含的低兼容性常规化。总体而言,我们的工作为研究DNNN的损失景观及其含义提供了一个骨架,可以预见到一个更准确和全面的理解。

0
下载
关闭预览

相关内容

Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
163+阅读 · 2019年10月12日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Arxiv
0+阅读 · 2021年10月7日
Arxiv
66+阅读 · 2021年6月18日
Optimization for deep learning: theory and algorithms
Arxiv
106+阅读 · 2019年12月19日
VIP会员
相关资讯
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
相关论文
Arxiv
0+阅读 · 2021年10月7日
Arxiv
66+阅读 · 2021年6月18日
Optimization for deep learning: theory and algorithms
Arxiv
106+阅读 · 2019年12月19日
Top
微信扫码咨询专知VIP会员