Continual learning has emerged as a pivotal area of research, primarily due to its advantageous characteristic that allows models to persistently acquire and retain information. However, catastrophic forgetting can severely impair model performance. In this study, we address network forgetting by introducing a novel framework termed Optimally-Weighted Maximum Mean Discrepancy (OWMMD), which imposes penalties on representation alterations via a Multi-Level Feature Matching Mechanism (MLFMM). Furthermore, we propose an Adaptive Regularization Optimization (ARO) strategy to refine the adaptive weight vectors, which autonomously assess the significance of each feature layer throughout the optimization process, The proposed ARO approach can relieve the over-regularization problem and promote the future task learning. We conduct a comprehensive series of experiments, benchmarking our proposed method against several established baselines. The empirical findings indicate that our approach achieves state-of-the-art performance.


翻译:持续学习已成为一个关键的研究领域,主要得益于其允许模型持续获取并保留信息的优势特性。然而,灾难性遗忘会严重损害模型性能。在本研究中,我们通过引入一种称为最优加权最大均值差异(OWMMD)的新框架来解决网络遗忘问题,该框架通过多级特征匹配机制(MLFMM)对表征变化施加惩罚。此外,我们提出了一种自适应正则化优化(ARO)策略来优化自适应权重向量,该策略能够在整个优化过程中自主评估每个特征层的重要性。所提出的ARO方法能够缓解过正则化问题并促进未来任务的学习。我们进行了一系列全面的实验,将所提方法与多个成熟基线进行了性能比较。实证结果表明,我们的方法实现了最先进的性能。

0
下载
关闭预览

相关内容

持续强化学习研究综述
专知会员服务
41+阅读 · 2025年6月30日
多模态持续学习的最新进展:综合综述
专知会员服务
47+阅读 · 2024年10月10日
持续学习的研究进展与趋势
专知会员服务
46+阅读 · 2024年3月8日
《图持续学习》综述
专知会员服务
44+阅读 · 2024年2月13日
概述联邦持续学习最新研究进展
专知会员服务
31+阅读 · 2023年6月18日
持续学习:研究综述
专知会员服务
83+阅读 · 2023年1月30日
【牛津大学博士论文】持续学习的高效机器学习,213页pdf
专知会员服务
84+阅读 · 2022年10月19日
专知会员服务
23+阅读 · 2021年9月30日
【Uber AI新论文】持续元学习,Learning to Continually Learn
专知会员服务
37+阅读 · 2020年2月27日
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
深度多模态表示学习综述论文,22页pdf
专知
33+阅读 · 2020年6月21日
用深度学习揭示数据的因果关系
专知
28+阅读 · 2019年5月18日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
39+阅读 · 2015年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
VIP会员
相关VIP内容
持续强化学习研究综述
专知会员服务
41+阅读 · 2025年6月30日
多模态持续学习的最新进展:综合综述
专知会员服务
47+阅读 · 2024年10月10日
持续学习的研究进展与趋势
专知会员服务
46+阅读 · 2024年3月8日
《图持续学习》综述
专知会员服务
44+阅读 · 2024年2月13日
概述联邦持续学习最新研究进展
专知会员服务
31+阅读 · 2023年6月18日
持续学习:研究综述
专知会员服务
83+阅读 · 2023年1月30日
【牛津大学博士论文】持续学习的高效机器学习,213页pdf
专知会员服务
84+阅读 · 2022年10月19日
专知会员服务
23+阅读 · 2021年9月30日
【Uber AI新论文】持续元学习,Learning to Continually Learn
专知会员服务
37+阅读 · 2020年2月27日
相关基金
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
39+阅读 · 2015年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员