Generative Recommendation has emerged as a promising paradigm, reformulating recommendation as a sequence-to-sequence generation task over hierarchical Semantic IDs. However, existing methods suffer from a critical issue we term Semantic Drift, where errors in early, high-level tokens irreversibly divert the generation trajectory into irrelevant semantic subspaces. Inspired by Process Reward Models (PRMs) that enhance reasoning in Large Language Models, we propose Promise, a novel framework that integrates dense, step-by-step verification into generative models. Promise features a lightweight PRM to assess the quality of intermediate inference steps, coupled with a PRM-guided Beam Search strategy that leverages dense feedback to dynamically prune erroneous branches. Crucially, our approach unlocks Test-Time Scaling Laws for recommender systems: by increasing inference compute, smaller models can match or surpass larger models. Extensive offline experiments and online A/B tests on a large-scale platform demonstrate that Promise effectively mitigates Semantic Drift, significantly improving recommendation accuracy while enabling efficient deployment.


翻译:生成式推荐作为一种新兴范式,将推荐任务重新定义为基于层级语义ID的序列到序列生成任务。然而,现有方法存在一个关键问题,我们称之为语义漂移,即早期高层级令牌中的错误会不可逆地将生成轨迹导向不相关的语义子空间。受过程奖励模型(PRMs)在大语言模型中提升推理能力的启发,我们提出了Promise——一种将密集的逐步验证机制集成到生成模型中的新型框架。Promise采用轻量级PRM评估中间推理步骤的质量,并结合PRM引导的束搜索策略,利用密集反馈动态剪除错误分支。关键的是,我们的方法为推荐系统解锁了测试时缩放定律:通过增加推理计算量,较小模型可以匹配甚至超越较大模型的性能。在大规模平台上进行的离线实验与在线A/B测试表明,Promise能有效缓解语义漂移,在显著提升推荐准确性的同时实现高效部署。

0
下载
关闭预览

相关内容

【阿里千问】在数学推理中开发过程奖励模型的经验教训
生成式推荐最新进展
专知会员服务
25+阅读 · 2025年1月8日
大语言模型在序列推荐中的应用
专知会员服务
19+阅读 · 2024年11月12日
自动特征工程在推荐系统中的研究
DataFunTalk
10+阅读 · 2019年12月20日
推荐系统产品与算法概述 | 深度
AI100
11+阅读 · 2019年6月13日
详解 | 推荐系统的工程实现
AI100
42+阅读 · 2019年3月15日
推荐系统
炼数成金订阅号
28+阅读 · 2019年1月17日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月6日
VIP会员
相关VIP内容
【阿里千问】在数学推理中开发过程奖励模型的经验教训
生成式推荐最新进展
专知会员服务
25+阅读 · 2025年1月8日
大语言模型在序列推荐中的应用
专知会员服务
19+阅读 · 2024年11月12日
相关基金
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员