Distribution matching distillation (DMD) aligns a multi-step generator with its few-step counterpart to enable high-quality generation under low inference cost. However, DMD tends to suffer from mode collapse, as its reverse-KL formulation inherently encourages mode-seeking behavior, for which existing remedies typically rely on perceptual or adversarial regularization, thereby incurring substantial computational overhead and training instability. In this work, we propose a role-separated distillation framework that explicitly disentangles the roles of distilled steps: the first step is dedicated to preserving sample diversity via a target-prediction (e.g., v-prediction) objective, while subsequent steps focus on quality refinement under the standard DMD loss, with gradients from the DMD objective blocked at the first step. We term this approach Diversity-Preserved DMD (DP-DMD), which, despite its simplicity -- no perceptual backbone, no discriminator, no auxiliary networks, and no additional ground-truth images -- preserves sample diversity while maintaining visual quality on par with state-of-the-art methods in extensive text-to-image experiments.


翻译:分布匹配蒸馏(DMD)通过将多步生成器与其少步对应物对齐,实现在低推理成本下的高质量生成。然而,DMD往往容易遭受模式崩溃,因为其反向KL公式本质上鼓励模式寻求行为。现有的补救措施通常依赖于感知或对抗正则化,从而带来巨大的计算开销和训练不稳定性。在这项工作中,我们提出了一种角色分离的蒸馏框架,明确解耦了被蒸馏步骤的角色:第一步通过目标预测(例如v-prediction)目标专门用于保持样本多样性,而后续步骤则在标准DMD损失下专注于质量提升,同时阻止DMD目标在第一步产生梯度。我们将这种方法称为多样性保持的DMD(DP-DMD)。尽管其设计简洁——无需感知主干网络、判别器、辅助网络或额外的真实图像——DP-DMD在广泛的文本到图像实验中,在保持视觉质量与最先进方法相当的同时,有效保持了样本多样性。

0
下载
关闭预览

相关内容

预训练扩散模型蒸馏综述
专知会员服务
25+阅读 · 2025年2月17日
多样化偏好优化
专知会员服务
12+阅读 · 2025年2月3日
视觉的有效扩散模型综述
专知会员服务
97+阅读 · 2022年10月20日
【CVPR2020】MSG-GAN:用于稳定图像合成的多尺度梯度GAN
专知会员服务
29+阅读 · 2020年4月6日
模型压缩 | 知识蒸馏经典解读
AINLP
11+阅读 · 2020年5月31日
重磅发布:基于 PyTorch 的深度文本匹配工具 MatchZoo-py
中国科学院网络数据重点实验室
16+阅读 · 2019年8月26日
AI新视野 | 数据蒸馏Dataset Distillation
人工智能前沿讲习班
31+阅读 · 2019年6月14日
深度学习应用在图像匹配的效果如何?
中国图象图形学报
10+阅读 · 2019年6月11日
推荐算法:Match与Rank模型的交织配合
从0到1
15+阅读 · 2017年12月18日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
VIP会员
相关VIP内容
预训练扩散模型蒸馏综述
专知会员服务
25+阅读 · 2025年2月17日
多样化偏好优化
专知会员服务
12+阅读 · 2025年2月3日
视觉的有效扩散模型综述
专知会员服务
97+阅读 · 2022年10月20日
【CVPR2020】MSG-GAN:用于稳定图像合成的多尺度梯度GAN
专知会员服务
29+阅读 · 2020年4月6日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员