成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
梯度
关注
2
梯度的本意是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。
综合
百科
VIP
热门
动态
论文
精华
Learnable Multipliers: Freeing the Scale of Language Model Matrix Layers
Arxiv
0+阅读 · 1月8日
Gradient Dynamics of Attention: How Cross-Entropy Sculpts Bayesian Manifolds
Arxiv
0+阅读 · 1月7日
Lenz effect in conductive nonmagnetic objects moved in MRI environments
Arxiv
0+阅读 · 1月7日
Jailbreaking LLMs Without Gradients or Priors: Effective and Transferable Attacks
Arxiv
0+阅读 · 1月6日
Optimizing Path Planning using Deep Reinforcement Learning for UGVs in Precision Agriculture
Arxiv
0+阅读 · 1月8日
From No-Regret to Strategically Robust Learning in Repeated Auctions
Arxiv
0+阅读 · 1月7日
Convergence of Sign-based Random Reshuffling Algorithms for Nonconvex Optimization
Arxiv
0+阅读 · 1月8日
Decentralized Privacy-Preserving Federal Learning of Computer Vision Models on Edge Devices
Arxiv
0+阅读 · 1月8日
Modular Prompt Optimization: Optimizing Structured Prompts with Section-Local Textual Gradients
Arxiv
0+阅读 · 1月7日
The Overlooked Role of Graded Relevance Thresholds in Multilingual Dense Retrieval
Arxiv
0+阅读 · 1月7日
Diffusion-DRF: Differentiable Reward Flow for Video Diffusion Fine-Tuning
Arxiv
0+阅读 · 1月7日
Gradient-based Optimisation of Modulation Effects
Arxiv
0+阅读 · 1月8日
Formally Explaining Decision Tree Models with Answer Set Programming
Arxiv
0+阅读 · 1月7日
Local Gradient Regulation Stabilizes Federated Learning under Client Heterogeneity
Arxiv
0+阅读 · 1月7日
Why Does Stochastic Gradient Descent Slow Down in Low-Precision Training?
Arxiv
0+阅读 · 1月8日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top