成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
轮
关注
0
综合
百科
VIP
热门
动态
论文
精华
Towards Continuous-Time Approximations for Stochastic Gradient Descent without Replacement
Arxiv
0+阅读 · 2025年12月4日
Exploring the Early Universe with Deep Learning
Arxiv
0+阅读 · 2025年10月30日
Rethinking Driving World Model as Synthetic Data Generator for Perception Tasks
Arxiv
0+阅读 · 2025年10月24日
Verifiable Fine-Tuning for LLMs: Zero-Knowledge Training Proofs Bound to Data Provenance and Policy
Arxiv
0+阅读 · 2025年10月19日
DDSC: Dynamic Dual-Signal Curriculum for Data-Efficient Acoustic Scene Classification under Domain Shift
Arxiv
0+阅读 · 2025年10月20日
On Task Vectors and Gradients
Arxiv
0+阅读 · 2025年10月10日
On Task Vectors and Gradients
Arxiv
0+阅读 · 2025年10月8日
Egalitarian Gradient Descent: A Simple Approach to Accelerated Grokking
Arxiv
0+阅读 · 2025年10月6日
On Task Vectors and Gradients
Arxiv
0+阅读 · 2025年10月1日
Double Descent as a Lens for Sample Efficiency in Autoregressive vs. Discrete Diffusion Models
Arxiv
0+阅读 · 2025年9月29日
An efficient Asymptotic-Preserving scheme for the Boltzmann mixture with disparate mass
Arxiv
0+阅读 · 2025年5月16日
An efficient Asymptotic-Preserving scheme for the Boltzmann mixture with disparate mass
Arxiv
0+阅读 · 2025年7月10日
Taming the One-Epoch Phenomenon in Online Recommendation System by Two-stage Contrastive ID Pre-training
Arxiv
0+阅读 · 2025年8月26日
The Epochal Sawtooth Phenomenon: Unveiling Training Loss Oscillations in Adam and Other Optimizers
Arxiv
0+阅读 · 2025年6月18日
The Epochal Sawtooth Effect: Unveiling Training Loss Oscillations in Adam and Other Optimizers
Arxiv
0+阅读 · 2025年5月22日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top