成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
知识蒸馏
关注
22
综合
百科
VIP
热门
动态
论文
精华
Sparse Knowledge Distillation: A Mathematical Framework for Probability-Domain Temperature Scaling and Multi-Stage Compression
Arxiv
0+阅读 · 1月6日
G2L:From Giga-Scale to Cancer-Specific Large-Scale Pathology Foundation Models via Knowledge Distillation
Arxiv
0+阅读 · 1月5日
DiffKD-DCIS: Predicting Upgrade of Ductal Carcinoma In Situ with Diffusion Augmentation and Knowledge Distillation
Arxiv
0+阅读 · 1月4日
Knowledge Distillation and Dataset Distillation of Large Language Models: Emerging Trends, Challenges, and Future Directions
Arxiv
0+阅读 · 1月3日
Model Merging via Multi-Teacher Knowledge Distillation
Arxiv
0+阅读 · 2025年12月24日
DeepBridge: A Unified and Production-Ready Framework for Multi-Dimensional Machine Learning Validation
Arxiv
0+阅读 · 2025年12月18日
In Good GRACEs: Principled Teacher Selection for Knowledge Distillation
Arxiv
0+阅读 · 2025年12月20日
Clustered Federated Learning with Hierarchical Knowledge Distillation
Arxiv
0+阅读 · 2025年12月11日
SelecTKD: Selective Token-Weighted Knowledge Distillation for LLMs
Arxiv
0+阅读 · 2025年11月16日
Pathryoshka: Compressing Pathology Foundation Models via Multi-Teacher Knowledge Distillation with Nested Embeddings
Arxiv
0+阅读 · 2025年11月28日
Self-Empowering VLMs: Achieving Hierarchical Consistency via Self-Elicited Knowledge Distillation
Arxiv
0+阅读 · 2025年11月23日
CanKD: Cross-Attention-based Non-local operation for Feature-based Knowledge Distillation
Arxiv
0+阅读 · 2025年11月26日
Revisiting Intermediate-Layer Matching in Knowledge Distillation: Layer-Selection Strategy Doesn't Matter (Much)
Arxiv
0+阅读 · 2025年12月10日
KD-PINN: Knowledge-Distilled PINNs for ultra-low-latency real-time neural PDE solvers
Arxiv
0+阅读 · 2025年12月15日
KD-PINN: Knowledge-Distilled PINNs for ultra-low-latency real-time neural PDE solvers
Arxiv
0+阅读 · 2025年12月16日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top