Diffusion language models (Diffusion-LMs) introduce an explicit temporal dimension into text generation, yet how this structure can be leveraged to control generation diversity for exploring multiple valid semantic or reasoning paths remains underexplored. In this paper, we show that Diffusion-LMs, like diffusion models in image generation, exhibit a temporal division of labor: early denoising steps largely determine the global semantic structure, while later steps focus on local lexical refinement. Building on this insight, we propose Time-Annealed Perturbation Sampling (TAPS), a training-free inference strategy that encourages semantic branching early in the diffusion process while progressively reducing perturbations to preserve fluency and instruction adherence. TAPS is compatible with both non-autoregressive and semi-autoregressive Diffusion backbones, demonstrated on LLaDA and TraDo in our paper, and consistently improves output diversity across creative writing and reasoning benchmarks without compromising generation quality.


翻译:扩散语言模型(Diffusion-LMs)将显式的时间维度引入文本生成,然而如何利用这种结构来控制生成多样性,以探索多个有效的语义或推理路径,仍研究不足。本文表明,扩散语言模型与图像生成中的扩散模型类似,呈现出一种时间分工:早期去噪步骤主要决定全局语义结构,而后期步骤则专注于局部词汇精炼。基于这一洞见,我们提出了时间退火扰动采样(TAPS),这是一种无需训练的推理策略,旨在扩散过程早期鼓励语义分支,同时逐步减少扰动以保持流畅性和指令遵循性。TAPS与非自回归和半自回归扩散主干网络均兼容,本文在LLaDA和TraDo模型上进行了演示,并在创意写作和推理基准测试中持续提升了输出多样性,且未损害生成质量。

0
下载
关闭预览

相关内容

扩散模型中的缓存方法综述:迈向高效的多模态生成
专知会员服务
8+阅读 · 2025年10月23日
扩散语言模型综述
专知会员服务
18+阅读 · 2025年8月15日
用于时间序列预测的扩散模型:综述
专知会员服务
29+阅读 · 2025年7月22日
用于语言生成的离散扩散模型
专知会员服务
11+阅读 · 2025年7月10日
基于扩散模型和流模型的推理时引导生成技术
专知会员服务
16+阅读 · 2025年4月30日
生成式人工智能的扩散模型概述
专知会员服务
66+阅读 · 2024年12月8日
【NeurIPS2024】释放扩散模型在小样本语义分割中的潜力
专知会员服务
17+阅读 · 2024年10月4日
使用多模态语言模型生成图像
专知会员服务
32+阅读 · 2023年8月23日
去噪扩散概率模型,46页ppt
专知会员服务
63+阅读 · 2023年1月4日
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
14+阅读 · 2008年12月31日
VIP会员
相关VIP内容
扩散模型中的缓存方法综述:迈向高效的多模态生成
专知会员服务
8+阅读 · 2025年10月23日
扩散语言模型综述
专知会员服务
18+阅读 · 2025年8月15日
用于时间序列预测的扩散模型:综述
专知会员服务
29+阅读 · 2025年7月22日
用于语言生成的离散扩散模型
专知会员服务
11+阅读 · 2025年7月10日
基于扩散模型和流模型的推理时引导生成技术
专知会员服务
16+阅读 · 2025年4月30日
生成式人工智能的扩散模型概述
专知会员服务
66+阅读 · 2024年12月8日
【NeurIPS2024】释放扩散模型在小样本语义分割中的潜力
专知会员服务
17+阅读 · 2024年10月4日
使用多模态语言模型生成图像
专知会员服务
32+阅读 · 2023年8月23日
去噪扩散概率模型,46页ppt
专知会员服务
63+阅读 · 2023年1月4日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
14+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员