Low-rank adaptation (LoRA) has achieved remarkable success in fine-tuning pre-trained vision transformers for various downstream tasks. Existing studies mainly focus on exploring more parameter-efficient strategies or more effective representation learning schemes. However, these methods either sacrifice fine-tuning performance or introduce excessive trainable parameters, failing to strike a balance between learning performance and parameter efficiency. To address this problem, we propose a novel tuning method named collaborative low-rank adaptation (CLoRA) in this paper. CLoRA consists of base-space sharing and sample-agnostic diversity enhancement (SADE) components. To maintain parameter efficiency while expanding the learning capacity of low-rank modules (LRMs), base-space sharing allows all LRMs to share a set of down/up-projection spaces. In CLoRA, the low-rank matrices obtained from the shared spaces collaboratively construct each LRM. Since the representations extracted by these matrices may contain redundant information, SADE is employed to regularize the similarities among them to encourage diverse representations in the training process. We conduct extensive experiments on widely used image and point cloud datasets to evaluate the performance of CLoRA. Experimental results demonstrate that CLoRA strikes a better balance between learning performance and parameter efficiency, while requiring the fewest GFLOPs for point cloud analysis, compared with the state-of-the-art methods.


翻译:低秩自适应(LoRA)在微调预训练视觉Transformer以适应各种下游任务方面取得了显著成功。现有研究主要集中于探索更具参数效率的策略或更有效的表征学习方案。然而,这些方法要么牺牲了微调性能,要么引入了过多的可训练参数,未能实现学习性能与参数效率之间的平衡。为解决此问题,本文提出了一种名为协作式低秩自适应(CLoRA)的新型调优方法。CLoRA由基础空间共享与样本无关多样性增强(SADE)组件构成。为在保持参数效率的同时扩展低秩模块(LRM)的学习能力,基础空间共享允许所有LRM共享一组下/上投影空间。在CLoRA中,从共享空间获得的低秩矩阵协作构建每个LRM。由于这些矩阵提取的表征可能包含冗余信息,SADE被用于正则化它们之间的相似性,以在训练过程中鼓励多样化的表征。我们在广泛使用的图像和点云数据集上进行了大量实验以评估CLoRA的性能。实验结果表明,与最先进的方法相比,CLoRA在学习性能与参数效率之间取得了更好的平衡,同时在点云分析中所需的GFLOPs最少。

0
下载
关闭预览

相关内容

【ICLR2025】大型语言模型的动态低秩稀疏适应
专知会员服务
14+阅读 · 2025年2月21日
【ICLR2025】RANDLORA: 全秩参数高效微调大规模模型
专知会员服务
15+阅读 · 2025年2月4日
大语言模型的LoRA研究综述
专知会员服务
54+阅读 · 2024年7月17日
预训练视觉模型的参数高效微调
专知会员服务
32+阅读 · 2024年3月19日
针对预训练视觉模型的参数高效微调
专知会员服务
22+阅读 · 2024年2月7日
【ICLR2024】MathVista:视觉背景下基础模型的数学推理评估
专知会员服务
35+阅读 · 2024年1月20日
【AAAI2023】FacT:视觉Transformer上轻量级自适应的因子精调
专知会员服务
17+阅读 · 2022年12月8日
【资源】领域自适应相关论文、代码分享
专知
32+阅读 · 2019年10月12日
深度学习在自动驾驶感知领域的应用
AI100
11+阅读 · 2019年3月6日
领域自适应学习论文大列表
专知
71+阅读 · 2019年3月2日
自注意力机制在计算机视觉中的应用
GAN生成式对抗网络
19+阅读 · 2018年12月20日
极市分享|王晋东 迁移学习中的领域自适应方法
极市平台
10+阅读 · 2017年12月11日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
18+阅读 · 2013年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
VIP会员
相关VIP内容
【ICLR2025】大型语言模型的动态低秩稀疏适应
专知会员服务
14+阅读 · 2025年2月21日
【ICLR2025】RANDLORA: 全秩参数高效微调大规模模型
专知会员服务
15+阅读 · 2025年2月4日
大语言模型的LoRA研究综述
专知会员服务
54+阅读 · 2024年7月17日
预训练视觉模型的参数高效微调
专知会员服务
32+阅读 · 2024年3月19日
针对预训练视觉模型的参数高效微调
专知会员服务
22+阅读 · 2024年2月7日
【ICLR2024】MathVista:视觉背景下基础模型的数学推理评估
专知会员服务
35+阅读 · 2024年1月20日
【AAAI2023】FacT:视觉Transformer上轻量级自适应的因子精调
专知会员服务
17+阅读 · 2022年12月8日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
18+阅读 · 2013年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员