Recent advances in large-scale models, including deep neural networks and large language models, have substantially improved performance across a wide range of learning tasks. The widespread availability of such pre-trained models creates new opportunities for data-efficient statistical learning, provided they can be effectively integrated into downstream tasks. Motivated by this setting, we study few-shot personalization, where a pre-trained black-box model is adapted to a target domain using a limited number of samples. We develop a theoretical framework for few-shot personalization in nonparametric regression and propose algorithms that can incorporate a black-box pre-trained model into the regression procedure. We establish the minimax optimal rate for the personalization problem and show that the proposed method attains this rate. Our results clarify the statistical benefits of leveraging pre-trained models under sample scarcity and provide robustness guarantees when the pre-trained model is not informative. We illustrate the finite-sample performance of the methods through simulations and an application to the California housing dataset with several pre-trained models.


翻译:近年来,大规模模型(包括深度神经网络和大语言模型)的进展显著提升了各类学习任务的性能。此类预训练模型的广泛可获得性为数据高效的统计学习创造了新的机遇,前提是它们能够被有效地整合到下游任务中。受此背景启发,我们研究小样本个性化问题,即利用有限样本将预训练的黑盒模型适配到目标领域。我们为非参数回归中的小样本个性化建立了一个理论框架,并提出了能够将黑盒预训练模型整合到回归过程中的算法。我们确立了该个性化问题的极小极大最优收敛速率,并证明了所提方法能够达到该速率。我们的结果阐明了在样本稀缺条件下利用预训练模型的统计优势,并在预训练模型信息量不足时提供了鲁棒性保证。我们通过仿真实验以及在加利福尼亚住房数据集上结合多种预训练模型的应用,展示了所提方法的有限样本性能。

0
下载
关闭预览

相关内容

在搭建网络模型时,需要随机初始化参数,然后开始训练网络,不断调整直到网络的损失越来越小。在训练的过程中,一开始初始化的参数会不断变化。当参数训练到比较好的时候就可以将训练模型的参数保存下来,以便训练好的模型可以在下次执行类似任务时获得较好的结果。
跨越黑盒:大语言模型的理论与机制
专知会员服务
37+阅读 · 1月7日
大规模语言模型的个性化:综述
专知会员服务
43+阅读 · 2024年11月4日
大型模型中的参数高效微调:方法论综述
专知会员服务
69+阅读 · 2024年11月3日
深度学习模型可解释性的研究进展
专知
26+阅读 · 2020年8月1日
从 ICLR 2019 一览小样本学习最新进展!
AI科技评论
15+阅读 · 2019年6月9日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月27日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员