Implicit networks are a class of neural networks whose outputs are defined by the fixed point of a parameterized operator. They have enjoyed success in many applications including natural language processing, image processing, and numerous other applications. While they have found abundant empirical success, theoretical work on its generalization is still under-explored. In this work, we consider a large family of implicit networks defined parameterized contractive fixed point operators. We show a generalization bound for this class based on a covering number argument for the Rademacher complexity of these architectures.


翻译:隐式网络是一类通过参数化算子的不动点来定义输出的神经网络。它们在自然语言处理、图像处理及众多其他应用中取得了显著成功。尽管在实证层面获得了广泛验证,其泛化能力的理论研究仍相对不足。本文研究由参数化压缩不动点算子定义的一大类隐式网络。基于对该类架构Rademacher复杂度的覆盖数论证,我们给出了此类网络的泛化界限。

0
下载
关闭预览

相关内容

图神经网络泛化理论研究综述
专知会员服务
24+阅读 · 2025年3月22日
最新《动态网络嵌入》综述论文,25页pdf
专知
37+阅读 · 2020年6月17日
网络表示学习概述
机器学习与推荐算法
19+阅读 · 2020年3月27日
图神经网络火了?谈下它的普适性与局限性
机器之心
22+阅读 · 2019年7月29日
CVPR2019教程《胶囊网络(Capsule Networks)综述》,附93页PPT
GAN生成式对抗网络
29+阅读 · 2019年6月21日
图神经网络最近这么火,不妨看看我们精选的这七篇
人工智能前沿讲习班
37+阅读 · 2018年12月10日
网络表示学习介绍
人工智能前沿讲习班
18+阅读 · 2018年11月26日
直白介绍卷积神经网络(CNN)
Python开发者
25+阅读 · 2018年4月8日
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关VIP内容
图神经网络泛化理论研究综述
专知会员服务
24+阅读 · 2025年3月22日
相关资讯
最新《动态网络嵌入》综述论文,25页pdf
专知
37+阅读 · 2020年6月17日
网络表示学习概述
机器学习与推荐算法
19+阅读 · 2020年3月27日
图神经网络火了?谈下它的普适性与局限性
机器之心
22+阅读 · 2019年7月29日
CVPR2019教程《胶囊网络(Capsule Networks)综述》,附93页PPT
GAN生成式对抗网络
29+阅读 · 2019年6月21日
图神经网络最近这么火,不妨看看我们精选的这七篇
人工智能前沿讲习班
37+阅读 · 2018年12月10日
网络表示学习介绍
人工智能前沿讲习班
18+阅读 · 2018年11月26日
直白介绍卷积神经网络(CNN)
Python开发者
25+阅读 · 2018年4月8日
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员