The problem of model selection is considered for the setting of interpolating estimators, where the number of model parameters exceeds the size of the dataset. Classical information criteria typically consider the large-data limit, penalizing model size. However, these criteria are not appropriate in modern settings where overparameterized models tend to perform well. For any overparameterized model, we show that there exists a dual underparameterized model that possesses the same marginal likelihood, thus establishing a form of Bayesian duality. This enables more classical methods to be used in the overparameterized setting, revealing the Interpolating Information Criterion, a measure of model quality that naturally incorporates the choice of prior into the model selection. Our new information criterion accounts for prior misspecification, geometric and spectral properties of the model, and is numerically consistent with known empirical and theoretical behavior in this regime.


翻译:本文研究了插值估计器背景下的模型选择问题,其中模型参数数量超过数据集规模。经典信息准则通常考虑大数据极限,对模型规模施加惩罚。然而,这些准则不适用于过参数化模型往往表现优异的现代场景。对于任意过参数化模型,我们证明存在一个对偶的欠参数化模型具有相同的边缘似然,从而建立了一种贝叶斯对偶形式。这使得更经典的方法能够应用于过参数化场景,并揭示了插值信息准则——一种自然将先验选择纳入模型选择的模型质量度量标准。我们提出的新信息准则考虑了先验设定错误、模型的几何与谱特性,其数值结果与该领域已知的经验和理论行为保持一致。

0
下载
关闭预览

相关内容

深度学习中泛化的量化、理解与改进
专知会员服务
17+阅读 · 2025年9月13日
联邦学习中基础模型参数高效微调综述
专知会员服务
17+阅读 · 2025年5月5日
大型模型中的参数高效微调:方法论综述
专知会员服务
69+阅读 · 2024年11月3日
《大型模型的参数高效微调》全面综述
专知会员服务
68+阅读 · 2024年3月22日
《过参数化机器学习理论》综述论文
专知会员服务
46+阅读 · 2021年9月19日
使用 Keras Tuner 调节超参数
TensorFlow
15+阅读 · 2020年2月6日
如何理解模型的过拟合与欠拟合,以及如何解决?
七月在线实验室
12+阅读 · 2019年4月23日
深度学习超参数搜索实用指南
云栖社区
28+阅读 · 2018年10月14日
超全总结:神经网络加速之量化模型 | 附带代码
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月29日
Arxiv
0+阅读 · 1月22日
VIP会员
最新内容
2025年大语言模型进展报告
专知会员服务
1+阅读 · 今天13:30
多智能体协作机制
专知会员服务
0+阅读 · 今天13:26
非对称优势:美海军开发低成本反无人机技术
专知会员服务
4+阅读 · 今天4:39
《美战争部小企业创新研究(SBIR)计划》
专知会员服务
6+阅读 · 今天2:48
《军事模拟:将军事条令与目标融入AI智能体》
专知会员服务
9+阅读 · 今天2:43
【NTU博士论文】3D人体动作生成
专知会员服务
7+阅读 · 4月24日
以色列军事技术对美国军力发展的持续性赋能
专知会员服务
8+阅读 · 4月24日
《深度强化学习在兵棋推演中的应用》40页报告
专知会员服务
14+阅读 · 4月24日
《多域作战面临复杂现实》
专知会员服务
10+阅读 · 4月24日
《印度的多域作战:条令与能力发展》报告
专知会员服务
5+阅读 · 4月24日
相关VIP内容
深度学习中泛化的量化、理解与改进
专知会员服务
17+阅读 · 2025年9月13日
联邦学习中基础模型参数高效微调综述
专知会员服务
17+阅读 · 2025年5月5日
大型模型中的参数高效微调:方法论综述
专知会员服务
69+阅读 · 2024年11月3日
《大型模型的参数高效微调》全面综述
专知会员服务
68+阅读 · 2024年3月22日
《过参数化机器学习理论》综述论文
专知会员服务
46+阅读 · 2021年9月19日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员