成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
随机梯度下降
关注
19
随机梯度下降,按照数据生成分布抽取m个样本,通过计算他们梯度的平均值来更新梯度。
综合
百科
VIP
热门
动态
论文
精华
SGD with Dependent Data: Optimal Estimation, Regret, and Inference
Arxiv
0+阅读 · 1月4日
From Continual Learning to SGD and Back: Better Rates for Continual Linear Models
Arxiv
0+阅读 · 1月1日
Stochastic Gradient Descent for Nonparametric Additive Regression
Arxiv
0+阅读 · 2025年12月30日
Learning quadratic neural networks in high dimensions: SGD dynamics and scaling laws
Arxiv
0+阅读 · 2025年12月28日
Stopping Rules for Stochastic Gradient Descent via Anytime-Valid Confidence Sequences
Arxiv
0+阅读 · 2025年12月22日
Universality of high-dimensional scaling limits of stochastic gradient descent
Arxiv
0+阅读 · 2025年12月20日
Learning Operators by Regularized Stochastic Gradient Descent with Operator-valued Kernels
Arxiv
0+阅读 · 2025年11月17日
Statistical Inference for Differentially Private Stochastic Gradient Descent
Arxiv
0+阅读 · 2025年12月12日
Why Does Stochastic Gradient Descent Slow Down in Low-Precision Training?
Arxiv
0+阅读 · 2025年11月22日
Stopping Rules for Stochastic Gradient Descent via Anytime-Valid Confidence Sequences
Arxiv
0+阅读 · 2025年12月15日
Stopping Rules for Stochastic Gradient Descent via Anytime-Valid Confidence Sequences
Arxiv
0+阅读 · 2025年12月16日
Revisiting Stochastic Approximation and Stochastic Gradient Descent
Arxiv
0+阅读 · 2025年11月10日
A Bootstrap Perspective on Stochastic Gradient Descent
Arxiv
0+阅读 · 2025年12月8日
Phase diagram and eigenvalue dynamics of stochastic gradient descent in multilayer neural networks
Arxiv
0+阅读 · 2025年11月18日
Towards Continuous-Time Approximations for Stochastic Gradient Descent without Replacement
Arxiv
0+阅读 · 2025年12月4日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top