Generative recommendation has emerged as a scalable alternative to traditional retrieve-and-rank pipelines by operating in a compact token space. However, existing methods mainly rely on discrete code-level supervision, which leads to information loss and limits the joint optimization between the tokenizer and the generative recommender. In this work, we propose a distribution-level supervision paradigm that leverages probability distributions over multi-layer codebooks as soft and information-rich representations. Building on this idea, we introduce Semantic-Oriented Distributional Alignment (SODA), a plug-and-play contrastive supervision framework based on Bayesian Personalized Ranking, which aligns semantically rich distributions via negative KL divergence while enabling end-to-end differentiable training. Extensive experiments on multiple real-world datasets demonstrate that SODA consistently improves the performance of various generative recommender backbones, validating its effectiveness and generality. Codes will be available upon acceptance.


翻译:生成式推荐通过在紧凑的令牌空间中操作,已成为传统检索-排序流程的一种可扩展替代方案。然而,现有方法主要依赖于离散的代码级监督,这会导致信息损失,并限制了分词器与生成式推荐器之间的联合优化。在本工作中,我们提出了一种分布级监督范式,该范式利用多层码本上的概率分布作为信息丰富的软表示。基于这一思想,我们引入了语义导向分布对齐(SODA),这是一个基于贝叶斯个性化排序的即插即用对比监督框架。该框架通过负KL散度对齐语义丰富的分布,同时支持端到端的可微分训练。在多个真实世界数据集上的大量实验表明,SODA能够持续提升各种生成式推荐器骨干模型的性能,验证了其有效性和通用性。代码将在论文被接受后公开。

0
下载
关闭预览

相关内容

本专题讨论会主要讨论离散问题之有效演算法与资料结构。除了这些方法和结构的设计,还包括它们的使用、性能分析以及与它们的发展或局限性相关的数学问题。性能分析可以是分析性的,也可以是实验性的,可以是针对最坏情况或预期情况的性能。研究可以是理论性的,也可以是基于实践中出现的数据集,可以解决绩效分析中涉及的方法学问题。官网链接:https://www.siam.org/conferences/cm/conference/soda20
生成式推荐综述:数据、模型与任务
专知会员服务
19+阅读 · 2025年11月4日
生成式推荐最新进展
专知会员服务
25+阅读 · 2025年1月8日
【SIGIR2024】生成检索作即多向量密集检索
专知会员服务
23+阅读 · 2024年4月5日
生成式推荐: 迈向下一代推荐系统新范式
专知会员服务
49+阅读 · 2023年4月15日
专知会员服务
30+阅读 · 2021年2月21日
自动特征工程在推荐系统中的研究
DataFunTalk
10+阅读 · 2019年12月20日
推荐系统产品与算法概述 | 深度
AI100
11+阅读 · 2019年6月13日
推荐系统
炼数成金订阅号
28+阅读 · 2019年1月17日
深度学习在推荐系统中的应用综述(最全)
七月在线实验室
17+阅读 · 2018年5月5日
推荐算法:Match与Rank模型的交织配合
从0到1
15+阅读 · 2017年12月18日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员