Model merging combines multiple fine-tuned models into a single model by adding their weight updates, providing a lightweight alternative to retraining. Existing methods primarily target resolving conflicts between task updates, leaving the failure mode of over-counting shared knowledge unaddressed. We show that when tasks share aligned spectral directions (i.e., overlapping singular vectors), a simple linear combination repeatedly accumulates these directions, inflating the singular values and biasing the merged model toward shared subspaces. To mitigate this issue, we propose Singular Value Calibration (SVC), a training-free and data-free post-processing method that quantifies subspace overlap and rescales inflated singular values to restore a balanced spectrum. Across vision and language benchmarks, SVC consistently improves strong merging baselines and achieves state-of-the-art performance. Furthermore, by modifying only the singular values, SVC improves the performance of Task Arithmetic by 13.0%. Code is available at: https://github.com/lyymuwu/SVC.


翻译:模型合并通过将多个微调模型的权重更新相加,将其整合为单一模型,提供了一种轻量级的替代重新训练的方法。现有方法主要致力于解决任务更新之间的冲突,而未解决过度计算共享知识这一失效模式。我们证明,当任务共享对齐的谱方向(即重叠的奇异向量)时,简单的线性组合会反复累积这些方向,导致奇异值膨胀并使合并模型偏向共享子空间。为缓解此问题,我们提出奇异值校准(SVC),这是一种无需训练且无需数据的后处理方法,可量化子空间重叠并重新缩放膨胀的奇异值以恢复平衡的谱。在视觉和语言基准测试中,SVC持续改进强大的合并基线并实现了最先进的性能。此外,通过仅修改奇异值,SVC将任务算术的性能提升了13.0%。代码可在以下网址获取:https://github.com/lyymuwu/SVC。

0
下载
关闭预览

相关内容

奇异值是矩阵里的概念,一般通过奇异值分解定理求得。设A为m*n阶矩阵,q=min(m,n),A*A的q个非负特征值的算术平方根叫作A的奇异值。奇异值分解是线性代数和矩阵论中一种重要的矩阵分解法,适用于信号处理和统计学等领域。
多模态知识图谱表示学习综述
专知会员服务
72+阅读 · 2024年7月4日
知识图谱与大模型融合综述
专知会员服务
120+阅读 · 2024年6月30日
融合知识图谱的预训练模型研究综述
专知会员服务
49+阅读 · 2024年3月31日
《深度模型融合》综述
专知会员服务
75+阅读 · 2023年9月28日
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
深度多模态表示学习综述论文,22页pdf
专知
33+阅读 · 2020年6月21日
专家报告|深度学习+图像多模态融合
中国图象图形学报
12+阅读 · 2019年10月23日
常用的模型集成方法介绍:bagging、boosting 、stacking
如何理解模型的过拟合与欠拟合,以及如何解决?
七月在线实验室
12+阅读 · 2019年4月23日
知识图谱中的深度学习技术应用概述
深度学习与NLP
11+阅读 · 2018年9月13日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月5日
VIP会员
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员