成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
蒸馏
关注
5
综合
百科
VIP
热门
动态
论文
精华
Sparse Knowledge Distillation: A Mathematical Framework for Probability-Domain Temperature Scaling and Multi-Stage Compression
Arxiv
0+阅读 · 1月6日
Compressed code: the hidden effects of quantization and distillation on programming tokens
Arxiv
0+阅读 · 1月5日
Heuristic Methods are Good Teachers to Distill MLPs for Graph Link Prediction
Arxiv
0+阅读 · 1月6日
Foreground-Aware Dataset Distillation via Dynamic Patch Selection
Arxiv
0+阅读 · 1月6日
CD4LM: Consistency Distillation and aDaptive Decoding for Diffusion Language Models
Arxiv
0+阅读 · 1月5日
MD-SNN: Membrane Potential-aware Distillation on Quantized Spiking Neural Network
Arxiv
0+阅读 · 1月2日
G2L:From Giga-Scale to Cancer-Specific Large-Scale Pathology Foundation Models via Knowledge Distillation
Arxiv
0+阅读 · 1月5日
Language Model Distillation: A Temporal Difference Imitation Learning Perspective
Arxiv
0+阅读 · 1月4日
DiffKD-DCIS: Predicting Upgrade of Ductal Carcinoma In Situ with Diffusion Augmentation and Knowledge Distillation
Arxiv
0+阅读 · 1月4日
Knowledge Distillation and Dataset Distillation of Large Language Models: Emerging Trends, Challenges, and Future Directions
Arxiv
0+阅读 · 1月3日
Joint Distillation for Fast Likelihood Evaluation and Sampling in Flow-based Models
Arxiv
0+阅读 · 1月4日
SGD-Based Knowledge Distillation with Bayesian Teachers: Theory and Guidelines
Arxiv
0+阅读 · 1月4日
MACA: A Framework for Distilling Trustworthy LLMs into Efficient Retrievers
Arxiv
0+阅读 · 1月1日
Training-Free Video Editing via Optical Flow-Enhanced Score Distillation
Arxiv
0+阅读 · 1月4日
Coupled Distributional Random Expert Distillation for World Model Online Imitation Learning
Arxiv
0+阅读 · 1月4日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top