Implicit feedback, such as user clicks, serves as the primary data source for modern recommender systems. However, click interactions inherently contain substantial noise, including accidental clicks, clickbait-induced interactions, and exploratory browsing behaviors that do not reflect genuine user preferences. Training recommendation models with such noisy positive samples leads to degraded prediction accuracy and unreliable recommendations. In this paper, we propose SAID (Semantics-Aware Implicit Denoising), a simple yet effective framework that leverages semantic consistency between user interests and item content to identify and downweight potentially noisy interactions. Our approach constructs textual user interest profiles from historical behaviors and computes semantic similarity with target item descriptions using pre-trained language model (PLM) based text encoders. The similarity scores are then transformed into sample weights that modulate the training loss, effectively reducing the impact of semantically inconsistent clicks. Unlike existing denoising methods that require complex auxiliary networks or multi-stage training procedures, SAID only modifies the loss function while keeping the backbone recommendation model unchanged. Extensive experiments on two real-world datasets demonstrate that SAID consistently improves recommendation performance, achieving up to 2.2% relative improvement in AUC over strong baselines, with particularly notable robustness under high noise conditions.


翻译:隐式反馈(如用户点击)是现代推荐系统的主要数据源。然而,点击交互本身包含大量噪声,包括偶然点击、诱导点击产生的交互以及不反映真实用户偏好的探索性浏览行为。使用此类噪声正样本训练推荐模型会导致预测准确性下降和推荐结果不可靠。本文提出SAID(语义感知隐式去噪),这是一个简单而有效的框架,利用用户兴趣与物品内容之间的语义一致性来识别并降低潜在噪声交互的权重。我们的方法从历史行为构建文本化用户兴趣画像,并使用基于预训练语言模型(PLM)的文本编码器计算其与目标物品描述的语义相似度。相似度分数随后被转化为样本权重以调节训练损失,有效降低语义不一致点击的影响。与现有需要复杂辅助网络或多阶段训练流程的去噪方法不同,SAID仅修改损失函数而保持主干推荐模型不变。在两个真实数据集上的大量实验表明,SAID能持续提升推荐性能,在AUC指标上较强基线最高获得2.2%的相对提升,并在高噪声条件下表现出尤为显著的鲁棒性。

0
下载
关闭预览

相关内容

【WWW2025】释放大型语言模型在去噪推荐中的强大能力
专知会员服务
13+阅读 · 2025年2月18日
关于大语言模型驱动的推荐系统智能体的综述
专知会员服务
28+阅读 · 2025年2月17日
基于因果推断的推荐系统去偏研究
专知会员服务
21+阅读 · 2024年11月10日
对话推荐算法研究综述
专知会员服务
50+阅读 · 2022年2月18日
专知会员服务
43+阅读 · 2021年8月30日
用于语音识别的数据增强
AI研习社
24+阅读 · 2019年6月5日
论文浅尝 | 基于深度强化学习的远程监督数据集的降噪
开放知识图谱
29+阅读 · 2019年1月17日
深度学习在推荐系统中的应用综述(最全)
七月在线实验室
17+阅读 · 2018年5月5日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员