Class-Incremental Learning (CIL) requires a model to continually learn new classes without forgetting old ones. A common and efficient solution freezes a pre-trained model and employs lightweight adapters, whose parameters are often forced to be orthogonal to prevent inter-task interference. However, we argue that this parameter-constraining method is detrimental to plasticity. To this end, we propose Semantic-Guided Dynamic Sparsification (SGDS), a novel method that proactively guides the activation space by governing the orientation and rank of its subspaces through targeted sparsification. Specifically, SGDS promotes knowledge transfer by encouraging similar classes to share a compact activation subspace, while simultaneously preventing interference by assigning non-overlapping activation subspaces to dissimilar classes. By sculpting class-specific sparse subspaces in the activation space, SGDS effectively mitigates interference without imposing rigid constraints on the parameter space. Extensive experiments on various benchmark datasets demonstrate the state-of-the-art performance of SGDS.


翻译:类增量学习要求模型在不遗忘旧类别的情况下持续学习新类别。一种常见且高效的解决方案是冻结预训练模型并采用轻量级适配器,其参数通常被强制正交化以防止任务间干扰。然而,我们认为这种参数约束方法会损害模型的可塑性。为此,我们提出语义引导的动态稀疏化方法,这是一种通过定向稀疏化控制子空间方向与秩来主动引导激活空间的新方法。具体而言,SGDS通过促使相似类别共享紧凑的激活子空间来促进知识迁移,同时通过为不相似类别分配非重叠的激活子空间来防止干扰。通过在激活空间中塑造类别特定的稀疏子空间,SGDS有效缓解了干扰,且无需对参数空间施加刚性约束。在多个基准数据集上的大量实验证明了SGDS具有最先进的性能。

0
下载
关闭预览

相关内容

【CVPR2024】生成式多模态模型是优秀的类增量学习器
专知会员服务
32+阅读 · 2024年3月28日
【CVPR2023】基础模型驱动弱增量学习的语义分割
专知会员服务
18+阅读 · 2023年3月2日
最新综述 | 类别增量学习研究进展和性能评价
专知会员服务
40+阅读 · 2023年2月18日
【AAAI2023】类增量学习的在线超参数优化
专知会员服务
20+阅读 · 2023年1月18日
专知会员服务
112+阅读 · 2020年6月26日
「知识增强预训练语言模型」最新研究综述
专知
18+阅读 · 2022年11月18日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
绝对干货!NLP预训练模型:从transformer到albert
新智元
13+阅读 · 2019年11月10日
深度学习中Attention Mechanism详细介绍:原理、分类及应用
深度学习与NLP
10+阅读 · 2019年2月18日
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
超全总结:神经网络加速之量化模型 | 附带代码
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
VIP会员
相关基金
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员