成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
SGD
关注
0
综合
百科
VIP
热门
动态
论文
精华
Why Adam Can Beat SGD: Second-Moment Normalization Yields Sharper Tails
Arxiv
0+阅读 · 3月3日
Statistical Inference with Stochastic Gradient Methods under $φ$-mixing Data
Arxiv
0+阅读 · 3月3日
Scaling Laws of SignSGD in Linear Regression: When Does It Outperform SGD?
Arxiv
0+阅读 · 3月2日
Adaptive Methods Are Preferable in High Privacy Settings: An SDE Perspective
Arxiv
0+阅读 · 3月3日
Convergence, Sticking and Escape: Stochastic Dynamics Near Critical Points in SGD
Arxiv
0+阅读 · 3月4日
Interactive Learning of Single-Index Models via Stochastic Gradient Descent
Arxiv
0+阅读 · 2月19日
Do We Need Adam? Surprisingly Strong and Sparse Reinforcement Learning with SGD in LLMs
Arxiv
0+阅读 · 2月24日
Stopping Rules for Stochastic Gradient Descent via Anytime-Valid Confidence Sequences
Arxiv
0+阅读 · 2月20日
PrivMedChat: End-to-End Differentially Private RLHF for Medical Dialogue Systems
Arxiv
0+阅读 · 3月3日
Lap2: Revisiting Laplace DP-SGD for High Dimensions via Majorization Theory
Arxiv
0+阅读 · 3月5日
Lap2: Revisiting Laplace DP-SGD for High Dimensions via Majorization Theory
Arxiv
0+阅读 · 3月7日
Non-Asymptotic Analysis of Efficiency in Conformalized Regression
Arxiv
0+阅读 · 3月5日
Uniform-in-time concentration in two-layer neural networks via transportation inequalities
Arxiv
0+阅读 · 3月2日
Double Momentum and Error Feedback for Clipping with Fast Rates and Differential Privacy
Arxiv
0+阅读 · 3月5日
Sign-SGD via Parameter-Free Optimization
Arxiv
0+阅读 · 2月20日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top