Training reinforcement learning (RL) systems in real-world environments remains challenging due to noisy supervision and poor out-of-domain (OOD) generalization, especially in LLM post-training. Recent distributional RL methods improve robustness by modeling values with multiple quantile points, but they still learn each quantile independently as a scalar. This results in rough-grained value representations that lack fine-grained conditioning on state information, struggling under complex and OOD conditions. We propose DFPO (Distributional Value Flow Policy Optimization with Conditional Risk and Consistency Control), a robust distributional RL framework that models values as continuous flows across time steps. By scaling value modeling through learning of a value flow field instead of isolated quantile predictions, DFPO captures richer state information for more accurate advantage estimation. To stabilize training under noisy feedback, DFPO further integrates conditional risk control and consistency constraints along value flow trajectories. Experiments on dialogue, math reasoning, and scientific tasks show that DFPO outperforms PPO, FlowRL, and other robust baselines under noisy supervision, achieving improved training stability and generalization.


翻译:在现实环境中训练强化学习(RL)系统仍然具有挑战性,这主要源于噪声监督和较差的域外(OOD)泛化能力,在大语言模型(LLM)后训练中尤其如此。近期的分布式强化学习方法通过使用多个分位数点对价值进行建模来提升鲁棒性,但它们仍将每个分位数作为独立的标量进行学习。这导致了粗粒度的价值表示,缺乏对状态信息的细粒度条件化,在复杂和OOD条件下表现不佳。我们提出了DFPO(具有条件风险与一致性控制的分布式价值流策略优化),这是一个鲁棒的分布式强化学习框架,它将价值建模为跨时间步的连续流。通过学习价值流场而非孤立的分位数预测来实现价值建模的规模化,DFPO能够捕捉更丰富的状态信息,从而进行更准确的优势估计。为了在噪声反馈下稳定训练,DFPO进一步沿价值流轨迹集成了条件风险控制和一致性约束。在对话、数学推理和科学任务上的实验表明,在噪声监督下,DFPO的表现优于PPO、FlowRL及其他鲁棒基线,实现了更好的训练稳定性和泛化能力。

0
下载
关闭预览

相关内容

【博士论文】受脑启发的规划:提升强化学习泛化能力
专知会员服务
14+阅读 · 2025年11月13日
大语言模型的强化学习技术综述
专知会员服务
40+阅读 · 2025年7月8日
什么是后训练?大语言模型训练后优化方法综述,87页pdf
【博士论文】朝向大规模语言模型的原则性训练与服务
专知会员服务
10+阅读 · 2025年2月10日
通过强化学习增强代码生成中的代码大语言模型:综述
专知会员服务
29+阅读 · 2025年1月1日
强化学习增强的大型语言模型:综述
专知会员服务
52+阅读 · 2024年12月17日
大型语言模型对齐技术综述:RLHF、RLAIF、PPO、DPO 等
专知会员服务
55+阅读 · 2024年7月24日
大型语言模型增强强化学习综述:概念、分类和方法
专知会员服务
57+阅读 · 2024年4月4日
「基于通信的多智能体强化学习」 进展综述
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
【MIT博士论文】数据高效强化学习,176页pdf
关于强化学习(附代码,练习和解答)
深度学习
37+阅读 · 2018年1月30日
FCS 论坛 | 孟德宇:误差建模原理
FCS
15+阅读 · 2017年8月17日
【强化学习】强化学习+深度学习=人工智能
产业智能官
55+阅读 · 2017年8月11日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关VIP内容
【博士论文】受脑启发的规划:提升强化学习泛化能力
专知会员服务
14+阅读 · 2025年11月13日
大语言模型的强化学习技术综述
专知会员服务
40+阅读 · 2025年7月8日
什么是后训练?大语言模型训练后优化方法综述,87页pdf
【博士论文】朝向大规模语言模型的原则性训练与服务
专知会员服务
10+阅读 · 2025年2月10日
通过强化学习增强代码生成中的代码大语言模型:综述
专知会员服务
29+阅读 · 2025年1月1日
强化学习增强的大型语言模型:综述
专知会员服务
52+阅读 · 2024年12月17日
大型语言模型对齐技术综述:RLHF、RLAIF、PPO、DPO 等
专知会员服务
55+阅读 · 2024年7月24日
大型语言模型增强强化学习综述:概念、分类和方法
专知会员服务
57+阅读 · 2024年4月4日
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员