Consistency models have been proposed for fast generative modeling, achieving results competitive with diffusion and flow models. However, these methods exhibit inherent instability and limited reproducibility when training from scratch, motivating subsequent work to explain and stabilize these issues. While these efforts have provided valuable insights, the explanations remain fragmented, and the theoretical relationships remain unclear. In this work, we provide a theoretical examination of consistency models by analyzing them from a flow map-based perspective. This joint analysis clarifies how training stability and convergence behavior can give rise to degenerate solutions. Building on these insights, we revisit self-distillation as a practical remedy for certain forms of suboptimal convergence and reformulate it to avoid excessive gradient norms for stable optimization. We further demonstrate that our strategy extends beyond image generation to diffusion-based policy learning, without reliance on a pretrained diffusion model for initialization, thereby illustrating its broader applicability.


翻译:一致性模型被提出用于快速生成建模,其性能可与扩散模型和流模型相媲美。然而,这些方法在从头开始训练时表现出固有的不稳定性和有限的可复现性,这促使后续工作致力于解释并稳定这些问题。尽管这些努力提供了宝贵的见解,但相关解释仍较为零散,且理论关系尚不明确。在本工作中,我们通过基于流映射的视角分析一致性模型,对其进行了理论考察。这一联合分析阐明了训练稳定性和收敛行为如何导致退化解的产生。基于这些见解,我们重新审视了自蒸馏方法,将其作为应对特定形式次优收敛的实用补救措施,并对其进行了重新表述以避免过大的梯度范值,从而实现稳定优化。我们进一步证明,该策略可扩展至基于扩散的策略学习领域,且无需依赖预训练的扩散模型进行初始化,从而展示了其更广泛的适用性。

0
下载
关闭预览

相关内容

生成模型中持续学习的综合综述
专知会员服务
25+阅读 · 2025年6月17日
预训练扩散模型蒸馏综述
专知会员服务
25+阅读 · 2025年2月17日
《多模态持续预训练实用指南》,52页pdf
专知会员服务
22+阅读 · 2024年9月3日
【博士论文】生成模型中的可控性与不确定性,214页pdf
专知会员服务
47+阅读 · 2024年3月14日
【CMU博士论文】稳定模型与时间差分学习,97页pdf
专知会员服务
24+阅读 · 2023年6月17日
详解扩散模型:从DDPM到稳定扩散,附Slides与视频
专知会员服务
87+阅读 · 2022年10月9日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月11日
Arxiv
0+阅读 · 2月3日
Arxiv
0+阅读 · 1月14日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员