成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
检查点
关注
0
综合
百科
VIP
热门
动态
论文
精华
FLOP-Efficient Training: Early Stopping Based on Test-Time Compute Awareness
Arxiv
0+阅读 · 1月4日
The Illusion of Insight in Reasoning Models
Arxiv
0+阅读 · 1月2日
Reliable and Resilient Collective Communication Library for LLM Training and Serving
Arxiv
0+阅读 · 2025年12月31日
Open-sci-ref-0.01: open and reproducible reference baselines for language model and dataset comparison
Arxiv
0+阅读 · 2025年12月30日
Understanding LLM Checkpoint/Restore I/O Strategies and Patterns
Arxiv
0+阅读 · 2025年12月30日
Optimizing Frequent Checkpointing via Low-Cost Differential for Distributed Training Systems
Arxiv
0+阅读 · 2025年12月24日
BitSnap: Checkpoint Sparsification and Quantization in LLM Training
Arxiv
0+阅读 · 2025年11月15日
New Encoders for German Trained from Scratch: Comparing ModernGBERT with Converted LLM2Vec Models
Arxiv
0+阅读 · 2025年11月3日
Optimizing Frequent Checkpointing via Low-Cost Differential for Distributed Training Systems
Arxiv
0+阅读 · 2025年12月4日
Universal Neurons in GPT-2: Emergence, Persistence, and Functional Impact
Arxiv
0+阅读 · 2025年11月9日
Emergent and Predictable Memorization in Large Language Models
Arxiv
0+阅读 · 2023年4月21日
FastRLAP: A System for Learning High-Speed Driving via Deep RL and Autonomous Practicing
Arxiv
0+阅读 · 2023年4月19日
Bitcoin-Enhanced Proof-of-Stake Security: Possibilities and Impossibilities
Arxiv
0+阅读 · 2023年4月18日
UniMax: Fairer and more Effective Language Sampling for Large-Scale Multilingual Pretraining
Arxiv
0+阅读 · 2023年4月18日
Proof-of-Learning is Currently More Broken Than You Think
Arxiv
0+阅读 · 2023年4月17日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top