Diffusion Large Language Models (DLLMs) have emerged as a powerful alternative to autoregressive models, enabling parallel token generation across multiple positions. However, preference alignment of DLLMs remains challenging due to high variance introduced by Evidence Lower Bound (ELBO)-based likelihood estimation. In this work, we propose AR-MAP, a novel transfer learning framework that leverages preference-aligned autoregressive LLMs (AR-LLMs) as implicit teachers for DLLM alignment. We reveal that DLLMs can effectively absorb alignment knowledge from AR-LLMs through simple weight scaling, exploiting the shared architectural structure between these divergent generation paradigms. Crucially, our approach circumvents the high variance and computational overhead of direct DLLM alignment and comprehensive experiments across diverse preference alignment tasks demonstrate that AR-MAP achieves competitive or superior performance compared to existing DLLM-specific alignment methods, achieving 69.08\% average score across all tasks and models. Our Code is available at https://github.com/AMAP-ML/AR-MAP.


翻译:扩散大语言模型(DLLMs)已成为自回归模型的一种强大替代方案,能够实现跨多个位置的并行令牌生成。然而,由于基于证据下界(ELBO)的似然估计引入了高方差,DLLMs的偏好对齐仍然具有挑战性。在本工作中,我们提出了AR-MAP,一种新颖的迁移学习框架,该框架利用偏好对齐的自回归大语言模型(AR-LLMs)作为DLLM对齐的隐式教师。我们发现,通过简单的权重缩放,DLLMs能够有效地从AR-LLMs中吸收对齐知识,这得益于这两种不同生成范式之间共享的架构结构。至关重要的是,我们的方法规避了直接进行DLLM对齐时的高方差和计算开销。在多种偏好对齐任务上的综合实验表明,与现有的DLLM专用对齐方法相比,AR-MAP取得了具有竞争力或更优的性能,在所有任务和模型上平均得分达到69.08%。我们的代码可在 https://github.com/AMAP-ML/AR-MAP 获取。

0
下载
关闭预览

相关内容

【CMU博士论文】大型语言模型的隐性特性
专知会员服务
15+阅读 · 2025年10月18日
多模态大语言模型的自我改进:综述
专知会员服务
25+阅读 · 2025年10月8日
扩散语言模型综述
专知会员服务
18+阅读 · 2025年8月15日
【ICML2025】大语言模型是自我示范预选择器
专知会员服务
12+阅读 · 2025年6月9日
面向统计学家的大型语言模型概述
专知会员服务
32+阅读 · 2025年3月16日
大模型如何迭代?北大等《大型语言模型自我进化》综述
自然语言处理中的语言模型预训练方法
PaperWeekly
14+阅读 · 2018年10月21日
TextInfoExp:自然语言处理相关实验(基于sougou数据集)
全球人工智能
12+阅读 · 2017年11月12日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月30日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员