Parameter-Efficient Fine-Tuning (PEFT) methods address the increasing size of Large Language Models (LLMs). Currently, many newly introduced PEFT methods are challenging to replicate, deploy, or compare with one another. To address this, we introduce PEFT-Factory, a unified framework for efficient fine-tuning LLMs using both off-the-shelf and custom PEFT methods. While its modular design supports extensibility, it natively provides a representative set of 19 PEFT methods, 27 classification and text generation datasets addressing 12 tasks, and both standard and PEFT-specific evaluation metrics. As a result, PEFT-Factory provides a ready-to-use, controlled, and stable environment, improving replicability and benchmarking of PEFT methods. PEFT-Factory is a downstream framework that originates from the popular LLaMA-Factory, and is publicly available at https://github.com/kinit-sk/PEFT-Factory.


翻译:参数高效微调(PEFT)方法旨在应对大语言模型(LLM)日益增长的规模。当前,许多新提出的PEFT方法在复现、部署或相互比较方面存在困难。为此,我们提出了PEFT-Factory,这是一个使用现成及自定义PEFT方法对LLM进行高效微调的统一框架。其模块化设计支持扩展性,同时原生提供了19种具有代表性的PEFT方法、涵盖12个任务的27个分类与文本生成数据集,以及标准及PEFT特有的评估指标。因此,PEFT-Factory提供了一个即用型、可控且稳定的环境,提升了PEFT方法的可复现性与基准测试能力。PEFT-Factory是源自流行框架LLaMA-Factory的下游框架,已在 https://github.com/kinit-sk/PEFT-Factory 公开。

0
下载
关闭预览

相关内容

PEFT A2Z:大型语言与视觉模型的参数高效微调综述
专知会员服务
21+阅读 · 2025年4月22日
《面向基础模型的高效参数微调》综述
专知会员服务
33+阅读 · 2025年1月24日
针对预训练视觉模型的参数高效微调
专知会员服务
22+阅读 · 2024年2月7日
《大型语言模型指令调优》综述
专知会员服务
74+阅读 · 2023年8月27日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
最新内容
《图世界模型:概念、分类体系与未来方向》
专知会员服务
6+阅读 · 5月1日
Palantir AIP平台:连接智能体与决策
专知会员服务
11+阅读 · 5月1日
《美海军软件测试战略》90页slides
专知会员服务
9+阅读 · 5月1日
面向具身智能与机器人仿真的三维生成:综述
专知会员服务
10+阅读 · 4月30日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员