Interactive recommender systems can dynamically adapt to user feedback, but often suffer from content homogeneity and filter bubble effects due to overfitting short-term user preferences. While recent efforts aim to improve content diversity, they predominantly operate in static or one-shot settings, neglecting the long-term evolution of user interests. Reinforcement learning provides a principled framework for optimizing long-term user satisfaction by modeling sequential decision-making processes. However, its application in recommendation is hindered by sparse, long-tailed user-item interactions and limited semantic planning capabilities. In this work, we propose LLM-Enhanced Reinforcement Learning (LERL), a novel hierarchical recommendation framework that integrates the semantic planning power of LLM with the fine-grained adaptability of RL. LERL consists of a high-level LLM-based planner that selects semantically diverse content categories, and a low-level RL policy that recommends personalized items within the selected semantic space. This hierarchical design narrows the action space, enhances planning efficiency, and mitigates overexposure to redundant content. Extensive experiments on real-world datasets demonstrate that LERL significantly improves long-term user satisfaction when compared with state-of-the-art baselines. The implementation of LERL is available at https://anonymous.4open.science/r/code3-18D3/.


翻译:交互式推荐系统能够根据用户反馈动态调整,但常因过度拟合短期用户偏好而面临内容同质化和信息茧房效应。尽管近期研究致力于提升内容多样性,但大多局限于静态或单次决策场景,忽视了用户兴趣的长期演化过程。强化学习通过建模序列决策过程,为优化长期用户满意度提供了理论框架,但其在推荐领域的应用受到稀疏、长尾的用户-物品交互以及有限语义规划能力的制约。本文提出LLM增强的强化学习框架,这是一种新颖的分层推荐架构,融合了LLM的语义规划能力与RL的细粒度适应性。该框架包含高层LLM规划器(负责选择语义多样的内容类别)和底层RL策略(在选定语义空间内推荐个性化物品)。这种分层设计压缩了动作空间,提升了规划效率,并缓解了冗余内容的过度曝光问题。在真实数据集上的大量实验表明,相较于现有先进基线方法,本框架显著提升了长期用户满意度。代码实现已发布于https://anonymous.4open.science/r/code3-18D3/。

0
下载
关闭预览

相关内容

【IJCAI2024教程】大语言模型(LLMs)时代的推荐系统
专知会员服务
51+阅读 · 2024年8月5日
基于强化学习的推荐研究综述
专知会员服务
84+阅读 · 2021年10月21日
个性化推荐系统技术进展
专知会员服务
66+阅读 · 2020年8月15日
推荐系统
炼数成金订阅号
28+阅读 · 2019年1月17日
深度学习在推荐系统中的应用综述(最全)
七月在线实验室
17+阅读 · 2018年5月5日
深度学习在推荐系统上的应用
架构文摘
13+阅读 · 2018年2月22日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
39+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关VIP内容
【IJCAI2024教程】大语言模型(LLMs)时代的推荐系统
专知会员服务
51+阅读 · 2024年8月5日
基于强化学习的推荐研究综述
专知会员服务
84+阅读 · 2021年10月21日
个性化推荐系统技术进展
专知会员服务
66+阅读 · 2020年8月15日
相关基金
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
39+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员