Recent advances in large-scale models, including deep neural networks and large language models, have substantially improved performance across a wide range of learning tasks. The widespread availability of such pre-trained models creates new opportunities for data-efficient statistical learning, provided they can be effectively integrated into downstream tasks. Motivated by this setting, we study few-shot personalization, where a pre-trained black-box model is adapted to a target domain using a limited number of samples. We develop a theoretical framework for few-shot personalization in nonparametric regression and propose algorithms that can incorporate a black-box pre-trained model into the regression procedure. We establish the minimax optimal rate for the personalization problem and show that the proposed method attains this rate. Our results clarify the statistical benefits of leveraging pre-trained models under sample scarcity and provide robustness guarantees when the pre-trained model is not informative. We illustrate the finite-sample performance of the methods through simulations and an application to the California housing dataset with several pre-trained models.


翻译:近年来,大规模模型(包括深度神经网络和大语言模型)的进展显著提升了各类学习任务的性能。此类预训练模型的广泛可获得性为数据高效的统计学习创造了新的机遇,前提是它们能够被有效地整合到下游任务中。受此背景启发,我们研究小样本个性化问题,即利用有限样本将预训练的黑盒模型适配到目标领域。我们为非参数回归中的小样本个性化建立了一个理论框架,并提出了能够将黑盒预训练模型整合到回归过程中的算法。我们确立了该个性化问题的极小极大最优收敛速率,并证明了所提方法能够达到该速率。我们的结果阐明了在样本稀缺条件下利用预训练模型的统计优势,并在预训练模型信息量不足时提供了鲁棒性保证。我们通过仿真实验以及在加利福尼亚住房数据集上结合多种预训练模型的应用,展示了所提方法的有限样本性能。

0
下载
关闭预览

相关内容

在搭建网络模型时,需要随机初始化参数,然后开始训练网络,不断调整直到网络的损失越来越小。在训练的过程中,一开始初始化的参数会不断变化。当参数训练到比较好的时候就可以将训练模型的参数保存下来,以便训练好的模型可以在下次执行类似任务时获得较好的结果。
[ICML2024]消除偏差:微调基础模型以进行半监督学习
专知会员服务
18+阅读 · 2024年5月23日
【NeurIPS2022】分布式自适应元强化学习
专知会员服务
24+阅读 · 2022年10月8日
专知会员服务
12+阅读 · 2021年7月16日
自回归模型:PixelCNN
专知会员服务
29+阅读 · 2020年3月21日
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
注意力机制综述(中文版)
专知
23+阅读 · 2021年1月26日
MNIST入门:贝叶斯方法
Python程序员
23+阅读 · 2017年7月3日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
[ICML2024]消除偏差:微调基础模型以进行半监督学习
专知会员服务
18+阅读 · 2024年5月23日
【NeurIPS2022】分布式自适应元强化学习
专知会员服务
24+阅读 · 2022年10月8日
专知会员服务
12+阅读 · 2021年7月16日
自回归模型:PixelCNN
专知会员服务
29+阅读 · 2020年3月21日
相关资讯
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
注意力机制综述(中文版)
专知
23+阅读 · 2021年1月26日
MNIST入门:贝叶斯方法
Python程序员
23+阅读 · 2017年7月3日
相关基金
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员