成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
SGD
关注
0
综合
百科
VIP
热门
动态
论文
精华
First Provably Optimal Asynchronous SGD for Homogeneous and Heterogeneous Data
Arxiv
0+阅读 · 1月5日
MAST: Model-Agnostic Sparsified Training
Arxiv
0+阅读 · 1月6日
Leveraging Flatness to Improve Information-Theoretic Generalization Bounds for SGD
Arxiv
0+阅读 · 1月4日
SGD-Based Knowledge Distillation with Bayesian Teachers: Theory and Guidelines
Arxiv
0+阅读 · 1月4日
Accelerating Decentralized Optimization via Overlapping Local Steps
Arxiv
0+阅读 · 1月4日
SGD with Dependent Data: Optimal Estimation, Regret, and Inference
Arxiv
0+阅读 · 1月4日
Learning quadratic neural networks in high dimensions: SGD dynamics and scaling laws
Arxiv
0+阅读 · 2025年12月31日
Edge of Stochastic Stability: Revisiting the Edge of Stability for SGD
Arxiv
0+阅读 · 2025年12月29日
On the Convergence Theory of Pipeline Gradient-based Analog In-memory Training
Arxiv
0+阅读 · 2025年12月26日
Revisiting the Last-Iterate Convergence of Stochastic Gradient Methods
Arxiv
0+阅读 · 2025年12月29日
Non-Asymptotic Analysis of Efficiency in Conformalized Regression
Arxiv
0+阅读 · 2025年12月25日
Stopping Rules for Stochastic Gradient Descent via Anytime-Valid Confidence Sequences
Arxiv
0+阅读 · 2025年12月22日
Anti-Correlated Noise in Epoch-Based Stochastic Gradient Descent: Implications for Weight Variances in Flat Directions
Arxiv
0+阅读 · 2025年12月22日
High-dimensional limit theorems for SGD: Momentum and Adaptive Step-sizes
Arxiv
0+阅读 · 2025年11月6日
Statistical Inference for Differentially Private Stochastic Gradient Descent
Arxiv
0+阅读 · 2025年12月12日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top