We prove that training a source model optimally for its own task is generically suboptimal when the objective is downstream transfer. We study the source-side optimization problem in L2-SP ridge regression and show a fundamental mismatch between the source-optimal and transfer-optimal source regularization: outside of a measure-zero set, $τ_0^* \neq τ_S^*$. We characterize the transfer-optimal source penalty $τ_0^*$ as a function of task alignment and identify an alignment-dependent reversal: with imperfect alignment ($0<ρ<1$), transfer benefits from stronger source regularization, while in super-aligned regimes ($ρ>1$), transfer benefits from weaker regularization. Additionally, in isotropic settings, the decision of whether transfer helps is independent of the target sample size and noise, depending only on task alignment and source characteristics. We verify the linear predictions in a synthetic ridge regression experiment, and we present experiments on MNIST, CIFAR-10, and 20 Newsgroups as evidence that the source-optimal versus transfer-optimal mismatch persists in standard nonlinear transfer learning pipelines.


翻译:我们证明,当目标是下游迁移时,针对其自身任务对源模型进行最优训练通常是次优的。我们研究了L2-SP岭回归中的源端优化问题,并揭示了源最优正则化与迁移最优源正则化之间存在根本性不匹配:在零测集之外,$τ_0^* \neq τ_S^*$。我们将迁移最优源惩罚项$τ_0^*$刻画为任务对齐度的函数,并发现一种依赖于对齐度的逆转现象:在不完全对齐情况下($0<ρ<1$),迁移受益于更强的源正则化;而在超对齐机制中($ρ>1$),迁移则受益于更弱的正则化。此外,在各向同性设置中,迁移是否有效的决策与目标样本量和噪声无关,仅取决于任务对齐度和源特征。我们在合成岭回归实验中验证了线性预测结果,并通过MNIST、CIFAR-10和20 Newsgroups上的实验证明,源最优与迁移最优之间的不匹配现象在标准非线性迁移学习流程中持续存在。

0
下载
关闭预览

相关内容

【普林斯顿博士论文】大规模模型的迁移学习与优化理论
机器学习中的最优化算法总结
人工智能前沿讲习班
22+阅读 · 2019年3月22日
迁移学习之Domain Adaptation
全球人工智能
18+阅读 · 2018年4月11日
【迁移学习】简述迁移学习在深度学习中的应用
产业智能官
15+阅读 · 2018年1月9日
迁移学习在深度学习中的应用
专知
24+阅读 · 2017年12月24日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
31+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月27日
VIP会员
相关VIP内容
【普林斯顿博士论文】大规模模型的迁移学习与优化理论
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
31+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员