Recently, self-play fine-tuning (SPIN) has been proposed to adapt large language models to downstream applications with scarce expert-annotated data, by iteratively generating synthetic responses from the model itself. However, SPIN is designed to optimize the current reward advantages of annotated responses over synthetic responses at hand, which may gradually vanish during iterations, leading to unstable optimization. Moreover, the utilization of reference policy induces a misalignment issue between the reward formulation for training and the metric for generation. To address these limitations, we propose a novel Triplet-based Self-Play fIne-tuNing (T-SPIN) method that integrates two key designs. First, beyond current advantages, T-SPIN additionally incorporates historical advantages between iteratively generated responses and proto-synthetic responses produced by the initial policy. Even if the current advantages diminish, historical advantages remain effective, stabilizing the overall optimization. Second, T-SPIN introduces the entropy constraint into the self-play framework, which is theoretically justified to support reference-free fine-tuning, eliminating the training-generation discrepancy. Empirical results on various tasks demonstrate not only the superior performance of T-SPIN over SPIN, but also its stable evolution during iterations. Remarkably, compared to supervised fine-tuning, T-SPIN achieves comparable or even better performance with only 25% samples, highlighting its effectiveness when faced with scarce annotated data.


翻译:近期提出的自博弈微调(SPIN)方法通过迭代生成模型自身的合成响应,使大语言模型能够适应专家标注数据稀缺的下游应用。然而,SPIN旨在优化当前标注响应相对于现有合成响应的奖励优势,这种优势在迭代过程中可能逐渐消失,导致优化过程不稳定。此外,参考策略的使用引发了训练阶段奖励构建与生成阶段评估指标之间的错位问题。为克服这些局限,本文提出一种新颖的三元组自博弈微调(T-SPIN)方法,其整合了两项关键设计。首先,除当前优势外,T-SPIN额外引入了迭代生成响应与初始策略生成的原型合成响应之间的历史优势。即使当前优势减弱,历史优势仍能持续生效,从而稳定整体优化过程。其次,T-SPIN将熵约束引入自博弈框架,该设计在理论上支持无参考微调,消除了训练与生成阶段的差异。多任务实验结果表明,T-SPIN不仅性能优于SPIN,且在迭代过程中保持稳定演化。值得注意的是,与监督微调相比,T-SPIN仅需25%的标注样本即可达到相当甚至更优的性能,这凸显了其在标注数据稀缺场景下的有效性。

0
下载
关闭预览

相关内容

第26届SPIN研讨会旨在将对软件分析和软件模型自动化工具技术感兴趣的研究人员和实践者聚集在一起,以进行验证和确认。研讨会特别关注并发软件,但不排除对顺序软件的分析。提交的资料包括理论结果、新算法、工具开发和经验评估。官网链接:https://conf.researchr.org/track/spin-2019/spin-2019-papers
多模态大语言模型的自我改进:综述
专知会员服务
25+阅读 · 2025年10月8日
大型语言模型对齐技术综述:RLHF、RLAIF、PPO、DPO 等
专知会员服务
55+阅读 · 2024年7月24日
从动力学角度看优化算法:GAN的第三个阶段
PaperWeekly
11+阅读 · 2019年5月13日
推荐算法:Match与Rank模型的交织配合
从0到1
15+阅读 · 2017年12月18日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关VIP内容
多模态大语言模型的自我改进:综述
专知会员服务
25+阅读 · 2025年10月8日
大型语言模型对齐技术综述:RLHF、RLAIF、PPO、DPO 等
专知会员服务
55+阅读 · 2024年7月24日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员