成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
随机梯度下降
关注
19
随机梯度下降,按照数据生成分布抽取m个样本,通过计算他们梯度的平均值来更新梯度。
综合
百科
VIP
热门
动态
论文
精华
Learning with Locally Private Examples by Inverse Weierstrass Private Stochastic Gradient Descent
Arxiv
0+阅读 · 2月18日
Functional Central Limit Theorem for Stochastic Gradient Descent
Arxiv
0+阅读 · 2月17日
Dichotomy of Feature Learning and Unlearning: Fast-Slow Analysis on Neural Networks with Stochastic Gradient Descent
Arxiv
0+阅读 · 2月7日
Stopping Rules for SGD via Anytime-Valid Confidence Sequences
Arxiv
0+阅读 · 2月10日
Why is Normalization Preferred? A Worst-Case Complexity Theory for Stochastically Preconditioned SGD under Heavy-Tailed Noise
Arxiv
0+阅读 · 2月13日
Limitations of SGD for Multi-Index Models Beyond Statistical Queries
Arxiv
0+阅读 · 2月5日
Full-Batch Gradient Descent Outperforms One-Pass SGD: Sample Complexity Separation in Single-Index Learning
Arxiv
0+阅读 · 2月2日
Online Statistical Inference for Contextual Bandits via Stochastic Gradient Descent
Arxiv
0+阅读 · 1月21日
An Improved Privacy and Utility Analysis of Differentially Private SGD with Bounded Domain and Smooth Losses
Arxiv
0+阅读 · 1月15日
Learning Operators by Regularized Stochastic Gradient Descent with Operator-valued Kernels
Arxiv
0+阅读 · 1月10日
Tight Analysis of Decentralized SGD: A Markov Chain Perspective
Arxiv
0+阅读 · 1月11日
Why Does Stochastic Gradient Descent Slow Down in Low-Precision Training?
Arxiv
0+阅读 · 1月8日
SGD with Dependent Data: Optimal Estimation, Regret, and Inference
Arxiv
0+阅读 · 1月4日
From Continual Learning to SGD and Back: Better Rates for Continual Linear Models
Arxiv
0+阅读 · 1月1日
Stochastic Gradient Descent for Nonparametric Additive Regression
Arxiv
0+阅读 · 2025年12月30日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top