Providing generalization guarantees for stochastic optimization algorithms remains a key challenge in learning theory. Recently, numerous works demonstrated the impact of the geometric properties of optimization trajectories on generalization performance. These works propose worst-case generalization bounds in terms of various notions of intrinsic dimension and/or topological complexity, which were found to empirically correlate with the generalization error. However, most of these approaches involve intractable mutual information terms, which limit a full understanding of the bounds. In contrast, some authors built on algorithmic stability to obtain worst-case bounds involving geometric quantities of a combinatorial nature, which are impractical to compute. In this paper, we address these limitations by combining empirically relevant complexity measures with a framework that avoids intractable quantities. To this end, we introduce the concept of \emph{random set stability}, tailored for the data-dependent random sets produced by stochastic optimization algorithms. Within this framework, we show that the worst-case generalization error can be bounded in terms of (i) the random set stability parameter and (ii) empirically relevant, data- and algorithm-dependent complexity measures of the random set. Moreover, our framework improves existing topological generalization bounds by recovering previous complexity notions without relying on mutual information terms. Through a series of experiments in practically relevant settings, we validate our theory by evaluating the tightness of our bounds and the interplay between topological complexity and stability.


翻译:为随机优化算法提供泛化保证仍然是学习理论中的一个关键挑战。近期,大量研究表明优化轨迹的几何性质对泛化性能具有重要影响。这些工作提出了基于各种内在维度和/或拓扑复杂度概念的最坏情况泛化界,这些界被发现在经验上与泛化误差相关。然而,大多数方法涉及难以处理的互信息项,这限制了对这些界的完整理解。相比之下,部分研究者基于算法稳定性获得了涉及组合性质几何量的最坏情况界,但这些几何量在实际中难以计算。本文通过将经验相关的复杂度度量与避免难处理量的框架相结合,解决了这些局限性。为此,我们引入了**随机集稳定性**的概念,该概念专门针对随机优化算法产生的数据依赖随机集而设计。在此框架下,我们证明最坏情况泛化误差可由以下两项界定:(i) 随机集稳定性参数;(ii) 经验相关、数据与算法依赖的随机集复杂度度量。此外,我们的框架通过在不依赖互信息项的情况下恢复先前的复杂度概念,改进了现有的拓扑泛化界。通过在实际相关场景中进行的一系列实验,我们通过评估所提出界的紧致性以及拓扑复杂度与稳定性之间的相互作用,验证了理论的有效性。

0
下载
关闭预览

相关内容

【CMU博士论文】深度学习中泛化的量化、理解与改进
专知会员服务
21+阅读 · 2025年10月11日
深度学习中泛化的量化、理解与改进
专知会员服务
17+阅读 · 2025年9月13日
【阿姆斯特丹博士论文】在测试时学习泛化
专知会员服务
12+阅读 · 2025年6月3日
【阿姆斯特丹博士论文】优化、博弈与泛化界,208页pdf
专知会员服务
31+阅读 · 2024年11月16日
【博士论文】基于信息论的泛化理论方法,274页pdf
专知会员服务
54+阅读 · 2024年6月3日
【博士论文】信息论视角下的泛化理论方法,274页pdf
专知会员服务
51+阅读 · 2024年4月28日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
用深度学习揭示数据的因果关系
专知
28+阅读 · 2019年5月18日
机器学习中的最优化算法总结
人工智能前沿讲习班
22+阅读 · 2019年3月22日
论强化学习的根本缺陷
AI科技评论
11+阅读 · 2018年7月24日
从浅层模型到深度模型:概览机器学习优化算法
机器之心
27+阅读 · 2017年7月9日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员