微调大语言模型(LLMs)通常既计算密集又占用大量内存。虽然诸如 QLoRA 和 DoRA 等参数高效微调方法能够减少可训练参数数量并降低内存使用,但它们并未降低计算成本,某些情况下甚至可能导致微调变慢。本文提出了 SparseLoRA,一种通过上下文稀疏性加速大语言模型微调的方法。我们引入了一种轻量级、无需训练的 SVD 稀疏性估计器,可动态选择用于损失和梯度计算的稀疏权重子集。此外,我们系统性地分析并解决了跨层、跨 token 以及跨训练步骤的敏感性问题。实验结果表明,SparseLoRA 在保持多种下游任务(包括常识与算术推理、代码生成和指令跟随)精度的同时,最多可减少 2.2 倍的计算开销,并实现 最多 1.6 倍的实际加速。

成为VIP会员查看完整内容
11

相关内容

【ICML2025】用于图属性学习器的非参数化教学方法
专知会员服务
10+阅读 · 2025年5月21日
【CVPR2025】CoLLM:面向组合图像检索的大语言模型
专知会员服务
13+阅读 · 2025年3月26日
【NeurIPS2024】TableRAG:基于语言模型的百万标记表格理解
专知会员服务
38+阅读 · 2024年10月8日
【ICML2022】基于自适应上下文池化的高效表示学习
专知会员服务
20+阅读 · 2022年7月9日
专知会员服务
22+阅读 · 2021年10月8日
专知会员服务
18+阅读 · 2021年9月17日
专知会员服务
23+阅读 · 2021年2月6日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【NeurIPS2019】图变换网络:Graph Transformer Network
NAACL 2019 | 一种考虑缓和KL消失的简单VAE训练方法
PaperWeekly
20+阅读 · 2019年4月24日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
500+阅读 · 2023年3月31日
Arxiv
83+阅读 · 2023年3月26日
Arxiv
69+阅读 · 2022年9月7日
Deep Face Recognition: A Survey
Arxiv
18+阅读 · 2019年2月12日
VIP会员
最新内容
最新“指挥控制”领域出版物合集(简介)
专知会员服务
1+阅读 · 4月12日
面向军事作战需求开发的人工智能(RAIMOND)
专知会员服务
4+阅读 · 4月12日
远程空中优势:新一代超视距导弹的兴起
专知会员服务
1+阅读 · 4月12日
大语言模型溯因推理的统一分类学与综述
专知会员服务
0+阅读 · 4月12日
相关VIP内容
【ICML2025】用于图属性学习器的非参数化教学方法
专知会员服务
10+阅读 · 2025年5月21日
【CVPR2025】CoLLM:面向组合图像检索的大语言模型
专知会员服务
13+阅读 · 2025年3月26日
【NeurIPS2024】TableRAG:基于语言模型的百万标记表格理解
专知会员服务
38+阅读 · 2024年10月8日
【ICML2022】基于自适应上下文池化的高效表示学习
专知会员服务
20+阅读 · 2022年7月9日
专知会员服务
22+阅读 · 2021年10月8日
专知会员服务
18+阅读 · 2021年9月17日
专知会员服务
23+阅读 · 2021年2月6日
相关基金
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员