Low-Rank Adaptation (LoRA) is a widely adopted parameter-efficient fine-tuning (PEFT) method. However, its linear adaptation process limits its expressive power. This means there is a gap between the expressive power of linear training and non-linear training. To bridge this gap, we propose AFA-LoRA, a novel training strategy that brings non-linear expressivity to LoRA while maintaining its seamless mergeability. Our key innovation is an annealed activation function that transitions from a non-linear to a linear transformation during training, allowing the adapter to initially adopt stronger representational capabilities before converging to a mergeable linear form. We implement our method on supervised fine-tuning, reinforcement learning, and speculative decoding. The results show that AFA-LoRA reduces the performance gap between LoRA and full-parameter training. This work enables a more powerful and practical paradigm of parameter-efficient adaptation.


翻译:低秩自适应(LoRA)是一种广泛采用的参数高效微调方法。然而,其线性自适应过程限制了其表达能力,这意味着线性训练与非线性训练的表达能力之间存在差距。为弥合这一差距,我们提出了AFA-LoRA,这是一种新颖的训练策略,在保持其无缝可合并性的同时,为LoRA引入了非线性表达能力。我们的核心创新是一种退火激活函数,其在训练过程中从非线性变换过渡到线性变换,使适配器能够先获得更强的表征能力,再收敛至可合并的线性形式。我们在监督微调、强化学习和推测解码任务上实现了该方法。结果表明,AFA-LoRA缩小了LoRA与全参数训练之间的性能差距。这项工作为参数高效自适应提供了一种更强大且实用的范式。

0
下载
关闭预览

相关内容

【ICML2025】扩散模型中参数高效微调的零样本适应
专知会员服务
13+阅读 · 2025年6月7日
【ICLR2025】大型语言模型的动态低秩稀疏适应
专知会员服务
14+阅读 · 2025年2月21日
【ICLR2025】RANDLORA: 全秩参数高效微调大规模模型
专知会员服务
15+阅读 · 2025年2月4日
大语言模型的LoRA研究综述
专知会员服务
54+阅读 · 2024年7月17日
【ACL2024】DoRA:通过动态秩分布增强参数高效微调
专知会员服务
21+阅读 · 2024年5月28日
【ICML2024】DoRA:权重分解的低秩适应
专知会员服务
20+阅读 · 2024年5月6日
【ICLR2024】MathVista:视觉背景下基础模型的数学推理评估
专知会员服务
35+阅读 · 2024年1月20日
一文读懂线性回归、岭回归和Lasso回归
CSDN
34+阅读 · 2019年10月13日
【资源】领域自适应相关论文、代码分享
专知
32+阅读 · 2019年10月12日
CALDERA 一款对手自动模拟工具
黑白之道
20+阅读 · 2019年9月17日
领域自适应学习论文大列表
专知
71+阅读 · 2019年3月2日
自定义损失函数Gradient Boosting
AI研习社
14+阅读 · 2018年10月16日
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
VIP会员
相关资讯
一文读懂线性回归、岭回归和Lasso回归
CSDN
34+阅读 · 2019年10月13日
【资源】领域自适应相关论文、代码分享
专知
32+阅读 · 2019年10月12日
CALDERA 一款对手自动模拟工具
黑白之道
20+阅读 · 2019年9月17日
领域自适应学习论文大列表
专知
71+阅读 · 2019年3月2日
自定义损失函数Gradient Boosting
AI研习社
14+阅读 · 2018年10月16日
相关基金
国家自然科学基金
1+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员