This work addresses two fundamental limitations in neural network approximation theory. We demonstrate that a three-dimensional network architecture enables a significantly more efficient representation of sawtooth functions, which serves as the cornerstone in the approximation of analytic and $L^p$ functions. First, we establish substantially improved exponential approximation rates for several important classes of analytic functions and offer a parameter-efficient network design. Second, for the first time, we derive a quantitative and non-asymptotic approximation of high orders for general $L^p$ functions. Our techniques advance the theoretical understanding of the neural network approximation in fundamental function spaces and offer a theoretically grounded pathway for designing more parameter-efficient networks.


翻译:本研究解决了神经网络逼近理论中的两个基本局限性。我们证明,一种三维网络架构能够显著更高效地表示锯齿函数,这构成了逼近解析函数与$L^p$函数的基石。首先,我们针对若干重要类别的解析函数建立了显著改进的指数逼近速率,并提供了一种参数高效的网络设计。其次,我们首次对一般$L^p$函数推导出了定量且非渐近的高阶逼近结果。我们的技术推进了对基本函数空间中神经网络逼近的理论理解,并为设计更具参数效率的网络提供了理论依据的路径。

0
下载
关闭预览

相关内容

【博士论文】迈向神经网络中的高维泛化
专知会员服务
10+阅读 · 3月1日
当深度强化学习遇见图神经网络
专知
227+阅读 · 2019年10月21日
图神经网络最近这么火,不妨看看我们精选的这七篇
人工智能前沿讲习班
37+阅读 · 2018年12月10日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
【博士论文】迈向神经网络中的高维泛化
专知会员服务
10+阅读 · 3月1日
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员