神经网络学习率设置

2018 年 3 月 3 日 机器学习研究会
                                                                                                                                                                                       
点击上方 “机器学习研究会”可以订阅
摘要
 

转自:爱可可-爱生活

In previous posts, I've discussed how we can train neural networks usingbackpropagation with gradient descent. One of the key hyperparameters to set in order to train a neural network is the learning rate for gradient descent. As a reminder, this parameter scales the magnitude of our weight updates in order to minimize the network's loss function.

If your learning rate is set too low, training will progress very slowly as you are making very tiny updates to the weights in your network. However, if your learning rate is set too high, it can cause undesirable divergent behavior in your loss function. I'll visualize these cases below - if you find these visuals hard to interpret, I'd recommend reading (at least) the first section in my post on gradient descent.


链接:

https://www.jeremyjordan.me/nn-learning-rate/


原文链接:

https://m.weibo.cn/1402400261/4213361128315325

“完整内容”请点击【阅读原文】
↓↓↓
登录查看更多
4

相关内容

专知会员服务
61+阅读 · 2020年3月19日
开源书:PyTorch深度学习起步
专知会员服务
51+阅读 · 2019年10月11日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
【教程】如何估算深度神经网络的最优学习率
GAN生成式对抗网络
5+阅读 · 2017年11月18日
教程 | 如何估算深度神经网络的最优学习率
机器之心
3+阅读 · 2017年11月17日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
Arxiv
102+阅读 · 2020年3月4日
Arxiv
4+阅读 · 2019年2月8日
Arxiv
3+阅读 · 2018年10月25日
Arxiv
3+阅读 · 2018年8月17日
Arxiv
3+阅读 · 2018年6月1日
VIP会员
相关VIP内容
专知会员服务
61+阅读 · 2020年3月19日
开源书:PyTorch深度学习起步
专知会员服务
51+阅读 · 2019年10月11日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
相关资讯
【教程】如何估算深度神经网络的最优学习率
GAN生成式对抗网络
5+阅读 · 2017年11月18日
教程 | 如何估算深度神经网络的最优学习率
机器之心
3+阅读 · 2017年11月17日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
相关论文
Arxiv
102+阅读 · 2020年3月4日
Arxiv
4+阅读 · 2019年2月8日
Arxiv
3+阅读 · 2018年10月25日
Arxiv
3+阅读 · 2018年8月17日
Arxiv
3+阅读 · 2018年6月1日
Top
微信扫码咨询专知VIP会员