神经网络因其超越训练数据的泛化能力,在广泛的应用领域中表现卓越。然而,在缺乏大规模数据的情况下,神经网络在处理高维任务时性能往往会下降,这一挑战被称为维数灾难(curse of dimensionality)。本论文旨在通过追求三个核心目标,深入理解并提升神经网络的泛化性能,从而应对这一局限性。 1. 研究神经网络泛化的比例法则(Scaling Laws):包括双下降(double descent)现象,即随着模型容量或训练数据的增加,测试误差在持续下降之前会经历一个暂时上升的阶段。具体而言,我们将设定两个目标:1) 进一步明确在何种实证条件下可以观测到双下降现象;2) 深入理解泛化性能相对于训练时间的比例法则。 1. 归纳偏置(Inductive Bias)的量化研究:归纳偏置是指学习算法为了预测未见输入而做出的一系列假设。我们提出量化在固定训练数据量下,模型实现良好泛化所需的归纳偏置程度。通过开发衡量归纳偏置的方法,我们可以评估模型设计者需要向神经网络中融入多少先验信息以提升其泛化能力。这种量化方法可以指导设计更具挑战性的任务,从而更好地测试模型的泛化性能。 1. 开发提升神经网络泛化的新方法:重点关注减少高维任务中所需的呈指数级增长的训练样本量。这涉及通过引入更强的归纳偏置,构建能够从有限数据中高效学习的算法与架构。具体而言,我们将侧重于两种归纳偏置:1) 学习与泛化性能相关的训练损失地形(training loss landscape)特征;2) 采用模块化神经网络架构(modular neural network architectures)。我们预期这些技术能够显著改善泛化表现,尤其是在高维任务中。

综上所述,这些贡献旨在深化我们的理论认知,并开发实用工具,使神经网络能够在有限数据下实现有效的泛化。

成为VIP会员查看完整内容
0

相关内容

人工神经网络(Artificial Neural Network,即ANN ),是20世纪80 年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象, 建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。 最近十多年来,人工神经网络的研究工作不断深入,已经取得了很大的进展,其在模式识别、智能机器人、自动控制、预测估计、生物、医学、经济等领域已成功地解决了许多现代计算机难以解决的实际问题,表现出了良好的智能特性。
【CMU博士论文】深度学习中泛化的量化、理解与改进
专知会员服务
21+阅读 · 2025年10月11日
【中科院计算所】图卷积神经网络及其应用
2019年新书推荐-《神经网络与深度学习》-Michael Nielsen
深度学习与NLP
14+阅读 · 2019年2月21日
图神经网络最近这么火,不妨看看我们精选的这七篇
人工智能前沿讲习班
37+阅读 · 2018年12月10日
专栏 | 浅析图卷积神经网络
机器之心
28+阅读 · 2018年7月4日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员