Large Language Models (LLMs) have proven highly effective in automating software engineering tasks, bridging natural language and code semantics to achieve notable results in code generation and summarization. However, their scale incurs substantial computational costs, making full fine-tuning impractical. Parameter-Efficient Fine-Tuning (PEFT) methods like QLoRA enable efficient specialization with lower resource demands. Recent studies show QLoRA-optimized Large Code Models (LCMs) perform strongly across diverse tasks, yet it remains unclear whether this effectiveness persists when a single model is QLoRA fine-tuned for multiple code-related tasks. The interaction between Multi-task fine-tuning and QLoRA optimization, and how transfer learning affects correctness and quality of generated artifacts, remains largely unexplored. We investigate Multi-task QLoRA fine-tuning across three representative tasks: code generation, translation, and summarization. We evaluate functional correctness through execution-based and similarity-based metrics, complemented by comprehensive code quality analysis--an aspect largely overlooked in prior work. Our findings show that Multi-task QLoRA effectively leverages transfer learning, achieving competitive or superior performance relative to both Single-task QLoRA and Multi-task full fine-tuning. Larger models demonstrate more consistent balance between correctness and quality, whereas smaller models preserve functionality but exhibit a higher incidence of quality-related issues.


翻译:大型语言模型(LLMs)已被证明在自动化软件工程任务方面极为有效,其通过桥接自然语言与代码语义,在代码生成与摘要任务中取得了显著成果。然而,其庞大的规模带来了巨大的计算成本,使得全参数微调难以实际应用。参数高效微调(PEFT)方法(如QLoRA)能够以较低的资源需求实现高效的专业化适配。近期研究表明,经QLoRA优化的大型代码模型(LCMs)在多样化任务中表现优异,但尚不清楚当单一模型通过QLoRA微调以处理多个代码相关任务时,这种有效性是否依然保持。多任务微调与QLoRA优化之间的相互作用,以及迁移学习如何影响生成产物的正确性与质量,目前仍缺乏深入探索。本研究针对三项代表性任务——代码生成、代码翻译与代码摘要——探究了多任务QLoRA微调的效果。我们通过基于执行的测试和基于相似度的度量来评估功能正确性,并辅以全面的代码质量分析(这一维度在以往工作中常被忽视)。实验结果表明,多任务QLoRA能有效利用迁移学习,相较于单任务QLoRA与多任务全参数微调,取得了具有竞争力或更优的性能。较大规模的模型在正确性与质量之间展现出更稳定的平衡,而较小模型虽能保持功能实现,却表现出更高质量相关问题的发生频率。

0
下载
关闭预览

相关内容

代码(Code)是专知网的一个重要知识资料文档板块,旨在整理收录论文源代码、复现代码,经典工程代码等,便于用户查阅下载使用。
联邦学习中基础模型参数高效微调综述
专知会员服务
16+阅读 · 2025年5月5日
PEFT A2Z:大型语言与视觉模型的参数高效微调综述
专知会员服务
21+阅读 · 2025年4月22日
《面向基础模型的高效参数微调》综述
专知会员服务
33+阅读 · 2025年1月24日
针对预训练视觉模型的参数高效微调
专知会员服务
22+阅读 · 2024年2月7日
超全总结:神经网络加速之量化模型 | 附带代码
半监督多任务学习:Semisupervised Multitask Learning
我爱读PAMI
18+阅读 · 2018年4月29日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月21日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员