成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
蒸馏
关注
5
综合
百科
VIP
热门
动态
论文
精华
Tight any-shot quantum decoupling
Arxiv
0+阅读 · 2月19日
pi-Flow: Policy-Based Few-Step Generation via Imitation Distillation
Arxiv
0+阅读 · 2月19日
Motion Prior Distillation in Time Reversal Sampling for Generative Inbetweening
Arxiv
0+阅读 · 2月19日
Optimal Unconstrained Self-Distillation in Ridge Regression: Strict Improvements, Precise Asymptotics, and One-Shot Tuning
Arxiv
0+阅读 · 2月19日
Accelerating Large-Scale Dataset Distillation via Exploration-Exploitation Optimization
Arxiv
0+阅读 · 2月19日
LLMDistill4Ads: Using Cross-Encoders to Distill from LLM Signals for Advertiser Keyphrase Recommendations at eBay
Arxiv
0+阅读 · 2月18日
Logit Distance Bounds Representational Similarity
Arxiv
0+阅读 · 2月18日
Texo: Formula Recognition within 20M Parameters
Arxiv
0+阅读 · 2月19日
Amber-Image: Efficient Compression of Large-Scale Diffusion Transformers
Arxiv
0+阅读 · 2月19日
B-DENSE: Branching For Dense Ensemble Network Learning
Arxiv
0+阅读 · 2月17日
Label-Consistent Dataset Distillation with Detector-Guided Refinement
Arxiv
0+阅读 · 2月18日
ColBERT-Zero: To Pre-train Or Not To Pre-train ColBERT models
Arxiv
0+阅读 · 2月18日
Updating Parametric Knowledge with Context Distillation Retains Post-Training Capabilities
Arxiv
0+阅读 · 2月17日
Accelerating Large-Scale Dataset Distillation via Exploration-Exploitation Optimization
Arxiv
0+阅读 · 2月17日
Protecting Language Models Against Unauthorized Distillation through Trace Rewriting
Arxiv
0+阅读 · 2月16日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top