An elementary approach to characterizing the impact of noise scheduling and time discretization in generative diffusion models is developed. We first utilize the Cramér-Rao bound to identify the Gaussian setting as a fundamental performance limit, necessitating its study as a reference. Building on this insight, we consider a simplified model in which the source distribution is a multivariate Gaussian with a given covariance matrix, together with the deterministic reverse sampling process. The explicit closed-form evolution trajectory of the distributions across reverse sampling steps is derived, and consequently, the Kullback-Leibler (KL) divergence between the source distribution and the reverse sampling output is obtained. The effect of the number of time discretization steps on the convergence of this KL divergence is studied via the Euler-Maclaurin expansion. An optimization problem is formulated, and its solution noise schedule is obtained via calculus of variations, shown to follow a tangent law whose coefficient is determined by the eigenvalues of the source covariance matrix. For an alternative scenario, more realistic in practice, where pretrained models have been obtained for some given noise schedules, the KL divergence also provides a measure to compare different time discretization strategies in reverse sampling. Experiments across different datasets and pretrained models demonstrate that the time discretization strategy selected by our approach consistently outperforms baseline and search-based strategies, particularly when the budget on the number of function evaluations is very tight.


翻译:本文提出了一种基本方法来刻画生成式扩散模型中噪声调度与时间离散化的影响。我们首先利用克拉默-拉奥下界确定高斯设定作为基本性能极限,从而需要以其为基准进行研究。基于这一认识,我们考虑一个简化模型:源分布为具有给定协方差矩阵的多元高斯分布,并采用确定性反向采样过程。我们推导了反向采样步骤中分布演化的显式闭式轨迹,进而得到了源分布与反向采样输出之间的Kullback-Leibler(KL)散度。通过欧拉-麦克劳林展开,研究了时间离散化步数对该KL散度收敛性的影响。我们构建了一个优化问题,并通过变分法得到其解对应的噪声调度方案,该方案遵循正切定律,其系数由源协方差矩阵的特征值确定。针对另一种更贴近实际的场景——已通过给定噪声调度方案获得预训练模型的情况,KL散度同样提供了比较反向采样中不同时间离散化策略的度量标准。在不同数据集和预训练模型上的实验表明,通过本方法选取的时间离散化策略始终优于基线策略和基于搜索的策略,尤其在函数评估次数预算极为有限的情况下表现更为突出。

0
下载
关闭预览

相关内容

用于语言生成的离散扩散模型
专知会员服务
11+阅读 · 2025年7月10日
基于扩散模型和流模型的推理时引导生成技术
专知会员服务
16+阅读 · 2025年4月30日
生成扩散模型研究综述
专知会员服务
37+阅读 · 2024年12月19日
生成式人工智能的扩散模型概述
专知会员服务
66+阅读 · 2024年12月8日
深度学习中Attention Mechanism详细介绍:原理、分类及应用
深度学习与NLP
10+阅读 · 2019年2月18日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员