Theoretically exploring the advantages of neural networks might be one of the most challenging problems in the AI era. An adaptive feature program has recently been proposed to analyze feature learning, the characteristic property of neural networks, in a more abstract way. Motivated by the celebrated Le Cam equivalence, we advocate the over-parameterized sequence models to further simplify the analysis of the training dynamics of adaptive feature program and present several pieces of supporting evidence for the adaptive feature program. More precisely, after having introduced the feature error measure (FEM) to characterize the quality of the learned feature, we show that the FEM is decreasing during the training process of several concrete adaptive feature models including linear regression, single/multiple index models, etc. We believe that this hints at the potential successes of the adaptive feature program.


翻译:从理论上探索神经网络的优势可能是人工智能时代最具挑战性的问题之一。最近有人提出了一种自适应特征程序,以更抽象的方式分析神经网络的特征学习这一特性。受著名的Le Cam等价性启发,我们倡导使用过参数化的序列模型来进一步简化自适应特征程序训练动态的分析,并提出了若干支持自适应特征程序的证据。更具体地说,在引入特征误差度量(FEM)来表征所学特征的质量之后,我们证明了在包括线性回归、单/多指标模型在内的多个具体自适应特征模型的训练过程中,FEM是递减的。我们相信这暗示了自适应特征程序潜在的成功可能。

0
下载
关闭预览

相关内容

【普林斯顿博士论文】理解数据在模型决策中的作用
专知会员服务
42+阅读 · 2024年4月26日
推荐算法中的特征工程
专知会员服务
40+阅读 · 2022年9月9日
领域自适应研究综述
专知会员服务
55+阅读 · 2021年5月5日
专知会员服务
39+阅读 · 2021年3月3日
深度学习模型可解释性的研究进展
专知
26+阅读 · 2020年8月1日
【资源】领域自适应相关论文、代码分享
专知
32+阅读 · 2019年10月12日
用深度学习揭示数据的因果关系
专知
28+阅读 · 2019年5月18日
从Seq2seq到Attention模型到Self Attention(一)
量化投资与机器学习
76+阅读 · 2018年10月8日
展望:模型驱动的深度学习
人工智能学家
12+阅读 · 2018年1月23日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2月3日
VIP会员
相关基金
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员