Continual learning (CL) has emerged as a dominant paradigm for acquiring knowledge from sequential tasks while avoiding catastrophic forgetting. Although many CL methods have been proposed to show impressive empirical performance, the theoretical understanding of their generalization behavior remains limited, particularly for replay-based approaches. This paper establishes a unified theoretical framework for replay-based CL, deriving a series of information-theoretic generalization bounds that explicitly elucidate the impact of the memory buffer alongside the current task on generalization performance. Specifically, our hypothesis-based bounds capture the trade-off between the number of selected exemplars and the information dependency between the hypothesis and the memory buffer. Our prediction-based bounds yield tighter and computationally tractable upper bounds on the generalization error by leveraging low-dimensional variables. Theoretical analysis is general and broadly applicable to a wide range of learning algorithms, exemplified by stochastic gradient Langevin dynamics (SGLD) as a representative method. Comprehensive experimental evaluations demonstrate the effectiveness of our derived bounds in capturing the generalization dynamics in replay-based CL settings.


翻译:持续学习(CL)已成为从顺序任务中获取知识同时避免灾难性遗忘的主导范式。尽管已提出许多CL方法并展现出令人印象深刻的实证性能,但对其泛化行为的理论理解仍然有限,特别是对于基于回放的方法。本文为基于回放的CL建立了一个统一的理论框架,推导出一系列信息论泛化边界,这些边界明确阐明了记忆缓冲区与当前任务对泛化性能的影响。具体而言,我们基于假设的边界捕捉了所选样本数量与假设和记忆缓冲区之间信息依赖性之间的权衡。我们基于预测的边界通过利用低维变量,得到了泛化误差更紧且计算上易处理的上界。理论分析具有一般性,广泛适用于多种学习算法,以随机梯度朗之万动力学(SGLD)作为代表性方法进行了示例说明。全面的实验评估证明了我们推导的边界在捕捉基于回放的CL设置中泛化动态的有效性。

0
下载
关闭预览

相关内容

【牛津博士论文】考虑计算成本的可扩展持续深度学习
专知会员服务
16+阅读 · 2025年3月2日
多模态持续学习的最新进展:综合综述
专知会员服务
47+阅读 · 2024年10月10日
【博士论文】信息论视角下的泛化理论方法,274页pdf
专知会员服务
51+阅读 · 2024年4月28日
【CVPR2024】卷积提示"遇见了语言模型的持续学习
专知会员服务
18+阅读 · 2024年4月1日
持续学习的研究进展与趋势
专知会员服务
46+阅读 · 2024年3月8日
【综述】持续学习与预训练模型综述
专知会员服务
54+阅读 · 2024年1月30日
【NeurIPS2022】解决持续学习问题的理论研究
专知会员服务
31+阅读 · 2022年11月7日
【Uber AI新论文】持续元学习,Learning to Continually Learn
专知会员服务
37+阅读 · 2020年2月27日
「基于通信的多智能体强化学习」 进展综述
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
迁移自适应学习最新综述,附21页论文下载
基于信息理论的机器学习
专知
22+阅读 · 2017年11月23日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
39+阅读 · 2015年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
VIP会员
相关VIP内容
【牛津博士论文】考虑计算成本的可扩展持续深度学习
专知会员服务
16+阅读 · 2025年3月2日
多模态持续学习的最新进展:综合综述
专知会员服务
47+阅读 · 2024年10月10日
【博士论文】信息论视角下的泛化理论方法,274页pdf
专知会员服务
51+阅读 · 2024年4月28日
【CVPR2024】卷积提示"遇见了语言模型的持续学习
专知会员服务
18+阅读 · 2024年4月1日
持续学习的研究进展与趋势
专知会员服务
46+阅读 · 2024年3月8日
【综述】持续学习与预训练模型综述
专知会员服务
54+阅读 · 2024年1月30日
【NeurIPS2022】解决持续学习问题的理论研究
专知会员服务
31+阅读 · 2022年11月7日
【Uber AI新论文】持续元学习,Learning to Continually Learn
专知会员服务
37+阅读 · 2020年2月27日
相关基金
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
39+阅读 · 2015年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员