The learning rate in stochastic gradient methods is a critical hyperparameter that is notoriously costly to tune via standard grid search, especially for training modern large-scale models with billions of parameters. We identify a theoretical advantage of learning rate annealing schemes that decay the learning rate to zero at a polynomial rate, such as the widely-used cosine schedule, by demonstrating their increased robustness to initial parameter misspecification due to a coarse grid search. We present an analysis in a stochastic convex optimization setup demonstrating that the convergence rate of stochastic gradient descent with annealed schedules depends sublinearly on the multiplicative misspecification factor $ρ$ (i.e., the grid resolution), achieving a rate of $O(ρ^{1/(2p+1)}/\sqrt{T})$ where $p$ is the degree of polynomial decay and $T$ is the number of steps. This is in contrast to the $O(ρ/\sqrt{T})$ rate obtained under the inverse-square-root and fixed stepsize schedules, which depend linearly on $ρ$. Experiments confirm the increased robustness compared to tuning with a fixed stepsize, that has significant implications for the computational overhead of hyperparameter search in practical training scenarios.


翻译:随机梯度方法中的学习率是一个关键的超参数,通过标准网格搜索进行调参的成本极高,尤其是在训练具有数十亿参数的现代大规模模型时。我们通过理论分析揭示了学习率退火方案(例如广泛使用的余弦调度)的优势,该方案以多项式速率将学习率衰减至零。我们证明,由于粗粒度网格搜索导致的初始参数设定误差,此类退火方案展现出更强的鲁棒性。我们在随机凸优化框架下进行分析,结果表明采用退火调度的随机梯度下降法的收敛速率对乘性设定误差因子 $ρ$(即网格分辨率)具有次线性依赖关系,其收敛速率为 $O(ρ^{1/(2p+1)}/\sqrt{T})$,其中 $p$ 为多项式衰减阶数,$T$ 为迭代步数。相比之下,采用逆平方根调度和固定步长调度时获得的收敛速率为 $O(ρ/\sqrt{T})$,其对 $ρ$ 呈线性依赖。实验证实了相较于固定步长调参,退火方案显著提升了鲁棒性,这一发现对实际训练场景中超参数搜索的计算开销具有重要影响。

0
下载
关闭预览

相关内容

联邦学习中基础模型参数高效微调综述
专知会员服务
16+阅读 · 2025年5月5日
《机器学习超参数优化》最新综述
专知会员服务
39+阅读 · 2024年10月31日
使用 Keras Tuner 调节超参数
TensorFlow
15+阅读 · 2020年2月6日
深度学习网络调参技巧
AINLP
15+阅读 · 2019年11月15日
机器学习中的最优化算法总结
人工智能前沿讲习班
22+阅读 · 2019年3月22日
2018年深度学习优化算法最新综述
计算机视觉战队
10+阅读 · 2018年12月11日
如何找到最优学习率?
AI研习社
11+阅读 · 2017年11月29日
干货|掌握机器学习数学基础之优化[1](重点知识)
机器学习研究会
10+阅读 · 2017年11月19日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
Arxiv
0+阅读 · 1月29日
VIP会员
相关VIP内容
联邦学习中基础模型参数高效微调综述
专知会员服务
16+阅读 · 2025年5月5日
《机器学习超参数优化》最新综述
专知会员服务
39+阅读 · 2024年10月31日
相关资讯
使用 Keras Tuner 调节超参数
TensorFlow
15+阅读 · 2020年2月6日
深度学习网络调参技巧
AINLP
15+阅读 · 2019年11月15日
机器学习中的最优化算法总结
人工智能前沿讲习班
22+阅读 · 2019年3月22日
2018年深度学习优化算法最新综述
计算机视觉战队
10+阅读 · 2018年12月11日
如何找到最优学习率?
AI研习社
11+阅读 · 2017年11月29日
干货|掌握机器学习数学基础之优化[1](重点知识)
机器学习研究会
10+阅读 · 2017年11月19日
相关基金
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员