Covering numbers of (deep) ReLU networks have been used to characterize approximation-theoretic performance, to upper-bound prediction error in nonparametric regression, and to quantify classification capacity. These results rely on covering number upper bounds obtained via explicit constructions of coverings. Lower bounds on covering numbers do not appear to be available in the literature. The present paper fills this gap by deriving tight (up to multiplicative constants) lower and upper bounds on the metric entropy (i.e., the logarithm of the covering numbers) of fully connected networks with bounded weights, sparse networks with bounded weights, and fully connected networks with quantized weights. The tightness of these bounds yields a fundamental understanding of the impact of sparsity, quantization, bounded versus unbounded weights, and network output truncation. Moreover, the bounds allow one to characterize fundamental limits of neural network transformation, including network compression, and lead to sharp upper bounds on the prediction error in nonparametric regression through deep networks. In particular, we remove a $\log^6(n)$-factor from the best known sample complexity rate for estimating Lipschitz functions via deep networks, thereby establishing optimality. Finally, we identify a systematic relation between optimal nonparametric regression and optimal approximation through deep networks, unifying numerous results in the literature and revealing underlying general principles.


翻译:深度ReLU网络的覆盖数已被用于刻画逼近理论性能、为非参数回归中的预测误差提供上界,以及量化分类容量。这些结果依赖于通过显式构造覆盖集获得的覆盖数上界。覆盖数的下界在现有文献中似乎尚未得到研究。本文通过推导具有有界权重的全连接网络、具有有界权重的稀疏网络,以及具有量化权重的全连接网络的度量熵(即覆盖数的对数)的紧致(相差常数倍)上下界,填补了这一空白。这些界限的紧致性揭示了稀疏性、量化、有界与无界权重以及网络输出截断影响的基本机理。此外,这些界限使得我们能够刻画神经网络变换的基本极限(包括网络压缩),并通过深度网络推导出非参数回归中预测误差的尖锐上界。特别地,我们移除了通过深度网络估计Lipschitz函数时已知最佳样本复杂度率中的$\log^6(n)$因子,从而确立了最优性。最后,我们揭示了最优非参数回归与通过深度网络实现最优逼近之间的系统关联,统一了文献中的众多结果,并阐明了其背后的通用原理。

0
下载
关闭预览

相关内容

专知会员服务
20+阅读 · 2021年5月30日
[ICML-Google]先宽后窄:对深度薄网络的有效训练
专知会员服务
36+阅读 · 2020年7月5日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
35+阅读 · 2020年4月15日
【Nature论文】深度网络中的梯度下降复杂度控制
专知会员服务
41+阅读 · 2020年3月9日
万字长文带你看尽深度学习中的各种卷积网络
AI科技评论
11+阅读 · 2019年2月19日
深度学习超参数搜索实用指南
云栖社区
28+阅读 · 2018年10月14日
数据分析师应该知道的16种回归方法:泊松回归
数萃大数据
35+阅读 · 2018年9月13日
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
干货|基于图卷积网络的图深度学习
DataCanvas大数据云平台
10+阅读 · 2017年6月8日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关资讯
万字长文带你看尽深度学习中的各种卷积网络
AI科技评论
11+阅读 · 2019年2月19日
深度学习超参数搜索实用指南
云栖社区
28+阅读 · 2018年10月14日
数据分析师应该知道的16种回归方法:泊松回归
数萃大数据
35+阅读 · 2018年9月13日
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
干货|基于图卷积网络的图深度学习
DataCanvas大数据云平台
10+阅读 · 2017年6月8日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员