成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
自蒸馏
关注
1
综合
百科
VIP
热门
动态
论文
精华
Optimal Unconstrained Self-Distillation in Ridge Regression: Strict Improvements, Precise Asymptotics, and One-Shot Tuning
Arxiv
0+阅读 · 2月19日
Categorical Flow Maps
Arxiv
0+阅读 · 2月12日
VocalNet-MDM: Accelerating Streaming Speech LLM via Self-Distilled Masked Diffusion Modeling
Arxiv
0+阅读 · 2月9日
T3D: Few-Step Diffusion Language Models via Trajectory Self-Distillation with Direct Discriminative Optimization
Arxiv
0+阅读 · 2月13日
T3D: Few-Step Diffusion Language Models via Trajectory Self-Distillation with Direct Discriminative Optimization
Arxiv
0+阅读 · 2月12日
Catching the Details: Self-Distilled RoI Predictors for Fine-Grained MLLM Perception
Arxiv
0+阅读 · 2月11日
Why Self-Training Helps and Hurts: Denoising vs. Signal Forgetting
Arxiv
0+阅读 · 2月15日
Reinforcement Learning via Self-Distillation
Arxiv
0+阅读 · 2月16日
Multi-Token Prediction via Self-Distillation
Arxiv
0+阅读 · 2月5日
Deep Probabilistic Supervision for Image Classification
Arxiv
0+阅读 · 2月5日
Semantic Self-Distillation for Language Model Uncertainty
Arxiv
0+阅读 · 2月4日
Metis-SPECS: Decoupling Multimodal Learning via Self-distilled Preference-based Cold Start
Arxiv
0+阅读 · 1月30日
FARTrack: Fast Autoregressive Visual Tracking with High Performance
Arxiv
0+阅读 · 2月3日
Stabilizing Consistency Training: A Flow Map Analysis and Self-Distillation
Arxiv
0+阅读 · 1月30日
Self-Distillation Enables Continual Learning
Arxiv
0+阅读 · 1月27日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top