Pre-trained models have become indispensable for efficiently building models across a broad spectrum of downstream tasks. The advantages of pre-trained models have been highlighted by empirical studies on scaling laws, which demonstrate that larger pre-trained models can significantly reduce the sample complexity of downstream learning. However, existing theoretical investigations of pre-trained models lack the capability to explain this phenomenon. In this paper, we provide a theoretical investigation by introducing a novel framework, caulking, inspired by parameter-efficient fine-tuning (PEFT) methods such as adapter-based fine-tuning, low-rank adaptation, and partial fine-tuning. Our analysis establishes that improved pre-trained models provably decrease the sample complexity of downstream tasks, thereby offering theoretical justification for the empirically observed scaling laws relating pre-trained model size to downstream performance, a relationship not covered by existing results.


翻译:预训练模型已成为高效构建广泛下游任务模型的不可或缺工具。关于缩放定律的实证研究凸显了预训练模型的优势,这些研究表明,更大的预训练模型能显著降低下游学习的样本复杂度。然而,现有关于预训练模型的理论研究缺乏解释这一现象的能力。本文通过引入一个受参数高效微调方法(如基于适配器的微调、低秩适应和部分微调)启发的新框架——填隙(caulking),进行了理论探究。我们的分析证明,改进的预训练模型可证明地降低下游任务的样本复杂度,从而为实证观察到的预训练模型规模与下游性能之间的缩放定律提供了理论依据,这一关系是现有结果所未涵盖的。

0
下载
关闭预览

相关内容

在搭建网络模型时,需要随机初始化参数,然后开始训练网络,不断调整直到网络的损失越来越小。在训练的过程中,一开始初始化的参数会不断变化。当参数训练到比较好的时候就可以将训练模型的参数保存下来,以便训练好的模型可以在下次执行类似任务时获得较好的结果。
联邦学习中基础模型参数高效微调综述
专知会员服务
16+阅读 · 2025年5月5日
预训练视觉模型的参数高效微调
专知会员服务
32+阅读 · 2024年3月19日
WWW24 | 赋予预训练图模型可证明的公平性
专知会员服务
15+阅读 · 2024年3月13日
针对预训练视觉模型的参数高效微调
专知会员服务
22+阅读 · 2024年2月7日
【ICLR2024】为样本高效的强化学习预训练基于目标的模型
小米在预训练模型的探索与优化
专知会员服务
20+阅读 · 2020年12月31日
「知识增强预训练语言模型」最新研究综述
专知
18+阅读 · 2022年11月18日
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
深度学习模型可解释性的研究进展
专知
26+阅读 · 2020年8月1日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员