成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
蒸馏
关注
5
综合
百科
VIP
热门
动态
论文
精华
S-VAM: Shortcut Video-Action Model by Self-Distilling Geometric and Semantic Foresight
Arxiv
0+阅读 · 3月18日
PAND: Prompt-Aware Neighborhood Distillation for Lightweight Fine-Grained Visual Classification
Arxiv
0+阅读 · 3月18日
Efficient Reasoning on the Edge
Arxiv
0+阅读 · 3月17日
CD-FKD: Cross-Domain Feature Knowledge Distillation for Robust Single-Domain Generalization in Object Detection
Arxiv
0+阅读 · 3月17日
ASDA: Automated Skill Distillation and Adaptation for Financial Reasoning
Arxiv
0+阅读 · 3月17日
Let it Snow! Animating 3D Gaussian Scenes with Dynamic Weather Effects via Physics-Guided Score Distillation
Arxiv
0+阅读 · 3月17日
Masked Auto-Regressive Variational Acceleration: Fast Inference Makes Practical Reinforcement Learning
Arxiv
0+阅读 · 3月17日
Effective Distillation to Hybrid xLSTM Architectures
Arxiv
0+阅读 · 3月16日
Dataset Distillation Efficiently Encodes Low-Dimensional Representations from Gradient-Based Learning of Non-Linear Tasks
Arxiv
0+阅读 · 3月16日
Masked Auto-Regressive Variational Acceleration: Fast Inference Makes Practical Reinforcement Learning
Arxiv
0+阅读 · 3月16日
Distilling Reasoning Without Knowledge: A Framework for Reliable LLMs
Arxiv
0+阅读 · 3月15日
Retrieval-Feedback-Driven Distillation and Preference Alignment for Efficient LLM-based Query Expansion
Arxiv
0+阅读 · 3月14日
Diffusion Reinforcement Learning via Centered Reward Distillation
Arxiv
0+阅读 · 3月14日
Is Human Annotation Necessary? Iterative MBR Distillation for Error Span Detection in Machine Translation
Arxiv
0+阅读 · 3月13日
Steve-Evolving: Open-World Embodied Self-Evolution via Fine-Grained Diagnosis and Dual-Track Knowledge Distillation
Arxiv
0+阅读 · 3月13日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top