成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
高效训练
关注
2
综合
百科
VIP
热门
动态
论文
精华
DiT-HC: Enabling Efficient Training of Visual Generation Model DiT on HPC-oriented CPU Cluster
Arxiv
0+阅读 · 2月18日
Efficient Post-Training Pruning of Large Language Models with Statistical Correction
Arxiv
0+阅读 · 2月7日
Sparse-to-Sparse Training of Diffusion Models
Arxiv
0+阅读 · 2月4日
Fast-Slow Efficient Training for Multimodal Large Language Models via Visual Token Pruning
Arxiv
0+阅读 · 2月3日
Efficient Training of Boltzmann Generators Using Off-Policy Log-Dispersion Regularization
Arxiv
0+阅读 · 2月3日
Training-Efficient Text-to-Music Generation with State-Space Modeling
Arxiv
0+阅读 · 1月21日
Training Tensor Attention Efficiently: From Cubic to Almost Linear Time
Arxiv
0+阅读 · 1月25日
FLOP-Efficient Training: Early Stopping Based on Test-Time Compute Awareness
Arxiv
0+阅读 · 1月4日
DiT-HC: Enabling Efficient Training of Visual Generation Model DiT on HPC-oriented CPU Cluster
Arxiv
0+阅读 · 1月4日
BLISS: Bandit Layer Importance Sampling Strategy for Efficient Training of Graph Neural Networks
Arxiv
0+阅读 · 2025年12月26日
Tiny-TSM: Efficiently Training a Lightweight SOTA Time Series Foundation Model
Arxiv
0+阅读 · 2025年11月24日
LaSNN: Layer-wise ANN-to-SNN Distillation for Effective and Efficient Training in Deep Spiking Neural Networks
Arxiv
0+阅读 · 2023年4月17日
Efficiently Trained Low-Resource Mongolian Text-to-Speech System Based On FullConv-TTS
Arxiv
0+阅读 · 2023年4月16日
On Efficient Training of Large-Scale Deep Learning Models: A Literature Review
Arxiv
231+阅读 · 2023年4月7日
TransCODE: Co-design of Transformers and Accelerators for Efficient Training and Inference
Arxiv
0+阅读 · 2023年3月27日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top