Reinforcement learning for large language models suffers from high-variance token-level importance sampling (IS) ratios, which would destabilize policy optimization at scale. To improve stability, recent methods typically use a fixed sequence-level IS ratio for all tokens in a sequence or adjust each token's IS ratio separately, thereby neglecting temporal off-policy derivation across tokens in a sequence. In this paper, we first empirically identify that local off-policy deviation is structurally inconsistent at the token level, which may distort policy-gradient updates across adjacent tokens and lead to training collapse. To address the issue, we propose Online Causal Kalman Filtering for stable and effective Policy Optimization (KPO). Concretely, we model the desired IS ratio as a latent state that evolves across tokens and apply a Kalman filter to update this state online and autoregressively based on the states of past tokens, regardless of future tokens. The resulting filtered IS ratios preserve token-wise local structure-aware variation while strongly smoothing noise spikes, yielding more stable and effective policy updates. Experimentally, KPO achieves superior results on challenging math reasoning datasets compared with state-of-the-art counterparts.


翻译:大型语言模型的强化学习面临高方差的分词级重要性采样(IS)比率问题,这在大规模训练时会破坏策略优化的稳定性。为提高稳定性,现有方法通常对整个序列中的所有分词使用固定的序列级IS比率,或单独调整每个分词的IS比率,从而忽略了序列中分词间的时间性离策略推导。本文首先通过实验发现,局部离策略偏差在分词层面存在结构性不一致,可能扭曲相邻分词间的策略梯度更新并导致训练崩溃。为解决该问题,我们提出用于稳定有效策略优化的在线因果卡尔曼滤波方法(KPO)。具体而言,我们将目标IS比率建模为随分词演化的潜在状态,并应用卡尔曼滤波器基于过去分词的状态(不考虑未来分词)在线且自回归地更新该状态。所得滤波后的IS比率在保留分词级局部结构感知变化的同时,能显著平滑噪声尖峰,从而产生更稳定有效的策略更新。实验表明,在具有挑战性的数学推理数据集上,KPO相比现有最优方法取得了更优异的结果。

0
下载
关闭预览

相关内容

将一个汉字序列切分成一个一个单独的词
【ICML2022】在线决策Transformer
专知会员服务
34+阅读 · 2022年7月27日
【ICML2022】基于少样本策略泛化的决策Transformer
专知会员服务
37+阅读 · 2022年7月11日
普林斯顿大学经典书《在线凸优化导论》,178页pdf
专知会员服务
187+阅读 · 2020年2月3日
EKF常用于目标跟踪系统的扩展卡尔曼滤波器
无人机
10+阅读 · 2017年7月25日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
VIP会员
相关VIP内容
【ICML2022】在线决策Transformer
专知会员服务
34+阅读 · 2022年7月27日
【ICML2022】基于少样本策略泛化的决策Transformer
专知会员服务
37+阅读 · 2022年7月11日
普林斯顿大学经典书《在线凸优化导论》,178页pdf
专知会员服务
187+阅读 · 2020年2月3日
相关基金
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员