Catastrophic forgetting remains a fundamental challenge for neural networks when tasks are trained sequentially. In this work, we reformulate continual learning as a control problem where learning and preservation signals compete within neural activity dynamics. We convert regularization penalties into preservation signals that protect prior-task representations. Learning then proceeds by minimizing the control effort required to integrate new tasks while competing with the preservation of prior tasks. At equilibrium, the neural activities produce weight updates that implicitly encode the full prior-task curvature, a property we term the continual-natural gradient, requiring no explicit curvature storage. Experiments confirm that our learning framework recovers true prior-task curvature and enables task discrimination, outperforming existing methods on standard benchmarks without replay.


翻译:灾难性遗忘仍然是神经网络在顺序学习任务时面临的根本挑战。在本研究中,我们将持续学习重新构建为控制问题,其中学习信号与保持信号在神经活动动态中相互竞争。我们将正则化惩罚项转化为保持信号,用以保护先前任务的表征。随后通过最小化整合新任务所需控制力(同时与先前任务保持相竞争)来实现学习过程。在平衡状态下,神经活动产生的权重更新隐式编码了完整的先前任务曲率——这一特性我们称之为持续自然梯度,无需显式存储曲率信息。实验证实,我们的学习框架能够恢复真实的先前任务曲率并实现任务区分,在标准基准测试中无需重放机制即可超越现有方法。

0
下载
关闭预览

相关内容

持续学习的研究进展与趋势
专知会员服务
46+阅读 · 2024年3月8日
《图持续学习》综述
专知会员服务
44+阅读 · 2024年2月13日
持续学习:研究综述
专知会员服务
83+阅读 · 2023年1月30日
专知会员服务
23+阅读 · 2021年9月30日
专知会员服务
51+阅读 · 2020年7月16日
【Uber AI新论文】持续元学习,Learning to Continually Learn
专知会员服务
37+阅读 · 2020年2月27日
机器学习中的最优化算法总结
人工智能前沿讲习班
22+阅读 · 2019年3月22日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
31+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2月18日
Arxiv
0+阅读 · 2月4日
VIP会员
相关VIP内容
持续学习的研究进展与趋势
专知会员服务
46+阅读 · 2024年3月8日
《图持续学习》综述
专知会员服务
44+阅读 · 2024年2月13日
持续学习:研究综述
专知会员服务
83+阅读 · 2023年1月30日
专知会员服务
23+阅读 · 2021年9月30日
专知会员服务
51+阅读 · 2020年7月16日
【Uber AI新论文】持续元学习,Learning to Continually Learn
专知会员服务
37+阅读 · 2020年2月27日
相关基金
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
31+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员