成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
梯度下降法
关注
0
综合
百科
VIP
热门
动态
论文
精华
Natural Hypergradient Descent: Algorithm Design, Convergence Analysis, and Parallel Implementation
Arxiv
0+阅读 · 2月11日
Step by Step: Adaptive Gradient Descent for Training L-Lipschitz Neural Networks
Arxiv
0+阅读 · 2月6日
High-probability Convergence Guarantees of Decentralized SGD
Arxiv
0+阅读 · 2月5日
Muon in Associative Memory Learning: Training Dynamics and Scaling Laws
Arxiv
0+阅读 · 2月5日
When do spectral gradient updates help in deep learning?
Arxiv
0+阅读 · 1月14日
Keep the beat going: Automatic drum transcription with momentum
Arxiv
0+阅读 · 1月15日
Gradient descent for deep equilibrium single-index models
Arxiv
0+阅读 · 1月9日
Gradient descent reliably finds depth- and gate-optimal circuits for generic unitaries
Arxiv
0+阅读 · 1月6日
Arc Gradient Descent: A Mathematically Derived Reformulation of Gradient Descent with Phase-Aware, User-Controlled Step Dynamics
Arxiv
0+阅读 · 2025年12月20日
Gradient Descent Finds Over-Parameterized Neural Networks with Sharp Generalization for Nonparametric Regression
Arxiv
0+阅读 · 2025年11月6日
The Global R-linear Convergence of Nesterov's Accelerated Gradient Method with Unknown Strongly Convex Parameter
Arxiv
0+阅读 · 2025年5月27日
The Average and Essential Best Rate of Convergence of the Exact Line Search Gradient Descent Method
Arxiv
0+阅读 · 2025年3月28日
On the Convergence of the Gradient Descent Method with Stochastic Fixed-point Rounding Errors under the Polyak-Lojasiewicz Inequality
Arxiv
0+阅读 · 2025年1月18日
On Penalty-based Bilevel Gradient Descent Method
Arxiv
0+阅读 · 2025年1月6日
Convergence of SGD with momentum in the nonconvex case: A time window-based analysis
Arxiv
0+阅读 · 2024年12月27日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top