成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
知识蒸馏
关注
22
综合
百科
VIP
热门
动态
论文
精华
Steve-Evolving: Open-World Embodied Self-Evolution via Fine-Grained Diagnosis and Dual-Track Knowledge Distillation
Arxiv
0+阅读 · 3月13日
Enhancing Automatic Chord Recognition via Pseudo-Labeling and Knowledge Distillation
Arxiv
0+阅读 · 2月23日
Rejuvenating Cross-Entropy Loss in Knowledge Distillation for Recommender Systems
Arxiv
0+阅读 · 3月1日
BEVLM: Distilling Semantic Knowledge from LLMs into Bird's-Eye View Representations
Arxiv
0+阅读 · 3月6日
From Images to Words: Efficient Cross-Modal Knowledge Distillation to Language Models from Black-box Teachers
Arxiv
0+阅读 · 3月11日
Distilled Circuits: A Mechanistic Study of Internal Restructuring in Knowledge Distillation
Arxiv
0+阅读 · 3月9日
MobileFetalCLIP: Selective Repulsive Knowledge Distillation for Mobile Fetal Ultrasound Analysis
Arxiv
0+阅读 · 3月5日
Beyond Mimicry to Contextual Guidance: Knowledge Distillation for Interactive AI
Arxiv
0+阅读 · 2月20日
DistillGuard: Evaluating Defenses Against LLM Knowledge Distillation
Arxiv
0+阅读 · 3月8日
PDF: PUF-based DNN Fingerprinting for Knowledge Distillation Traceability
Arxiv
0+阅读 · 2月27日
Efficient Personalized Reranking with Semi-Autoregressive Generation and Online Knowledge Distillation
Arxiv
0+阅读 · 3月7日
ColBERT-Zero: To Pre-train Or Not To Pre-train ColBERT models
Arxiv
0+阅读 · 2月18日
Protecting Language Models Against Unauthorized Distillation through Trace Rewriting
Arxiv
0+阅读 · 2月16日
DistillLens: Symmetric Knowledge Distillation Through Logit Lens
Arxiv
0+阅读 · 2月14日
Agentic Knowledge Distillation: Autonomous Training of Small Language Models for SMS Threat Detection
Arxiv
0+阅读 · 2月11日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top