Abstraction is the process of extracting the essential features from raw data while ignoring irrelevant details. It is well known that abstraction emerges with depth in neural networks, where deep layers capture abstract characteristics of data by combining lower level features encoded in shallow layers (e.g. edges). Yet we argue that depth alone is not enough to develop truly abstract representations. We advocate that the level of abstraction crucially depends on how broad the training set is. We address the issue within a renormalisation group approach where a representation is expanded to encompass a broader set of data. We take the unique fixed point of this transformation -- the Hierarchical Feature Model -- as a candidate for a representation which is absolutely abstract. This theoretical picture is tested in numerical experiments based on Deep Belief Networks and auto-encoders trained on data of different breadth. These show that representations in neural networks approach the Hierarchical Feature Model as the data get broader and as depth increases, in agreement with theoretical predictions.


翻译:抽象化是从原始数据中提取本质特征而忽略无关细节的过程。众所周知,抽象化随着神经网络深度的增加而出现,深层通过组合浅层编码的低级特征(如边缘)来捕获数据的抽象特征。然而我们认为,仅凭深度不足以发展出真正抽象的表征。我们主张抽象化水平关键取决于训练集的广度。我们在重整化群方法的框架下探讨这一问题,其中表征被扩展以涵盖更广泛的数据集。我们将此变换的唯一不动点——层次特征模型——视为绝对抽象表征的候选者。这一理论图景在基于深度信念网络和自编码器的数值实验中得到了验证,这些网络在不同广度的数据上进行训练。实验表明,随着数据广度的增加和网络深度的加深,神经网络中的表征逐渐趋近层次特征模型,这与理论预测一致。

0
下载
关闭预览

相关内容

【CMU博士论文】强化学习中的涌现式抽象
专知会员服务
14+阅读 · 3月8日
零样本量化:综述
专知会员服务
13+阅读 · 2025年5月15日
【牛津大学博士论文】强化学习时间抽象和泛化,196页pdf
【布朗大学David Abel博士论文】强化学习抽象理论,297页pdf
【AAAI2021】对比聚类,Contrastive Clustering
专知
26+阅读 · 2021年1月30日
【总结】强化学习需要批归一化(Batch Norm)吗?
深度强化学习实验室
28+阅读 · 2020年10月8日
实体关系抽取方法研究综述
专知
14+阅读 · 2020年7月19日
【图谱构建】图谱构建之知识抽取
AINLP
20+阅读 · 2020年5月5日
【关系抽取】从文本中进行关系抽取的几种不同的方法
深度学习自然语言处理
29+阅读 · 2020年3月30日
超像素、语义分割、实例分割、全景分割 傻傻分不清?
计算机视觉life
19+阅读 · 2018年11月27日
大讲堂 | 神经关系抽取模型
AI研习社
24+阅读 · 2018年9月11日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月19日
Arxiv
0+阅读 · 2月18日
VIP会员
最新内容
大语言模型溯因推理的统一分类学与综述
专知会员服务
0+阅读 · 10分钟前
美/以-伊战争:停火与后续情景与影响分析
专知会员服务
3+阅读 · 4月11日
美国-以色列-伊朗战争:是否会动用地面部队?
美国协同作战飞机项目新型无人机发动机
专知会员服务
1+阅读 · 4月11日
相关资讯
【AAAI2021】对比聚类,Contrastive Clustering
专知
26+阅读 · 2021年1月30日
【总结】强化学习需要批归一化(Batch Norm)吗?
深度强化学习实验室
28+阅读 · 2020年10月8日
实体关系抽取方法研究综述
专知
14+阅读 · 2020年7月19日
【图谱构建】图谱构建之知识抽取
AINLP
20+阅读 · 2020年5月5日
【关系抽取】从文本中进行关系抽取的几种不同的方法
深度学习自然语言处理
29+阅读 · 2020年3月30日
超像素、语义分割、实例分割、全景分割 傻傻分不清?
计算机视觉life
19+阅读 · 2018年11月27日
大讲堂 | 神经关系抽取模型
AI研习社
24+阅读 · 2018年9月11日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员