Sequential recommendation (SR) aims to predict a user's next action by learning from their historical interaction sequences. In real-world applications, these models require periodic updates to adapt to new interactions and evolving user preferences. While incremental learning methods facilitate these updates, they face significant challenges. Replay-based approaches incur high memory and computational costs, and regularization-based methods often struggle to discard outdated or conflicting knowledge. To overcome these challenges, we propose SA-CAISR, a Stage-Adaptive and Conflict-Aware Incremental Sequential Recommendation framework. As a buffer-free framework, SA-CAISR operates using only the old model and new data, directly addressing the high costs of replay-based techniques. SA-CAISR introduces a novel Fisher-weighted knowledge-screening mechanism that dynamically identifies outdated knowledge by estimating parameter-level conflicts between the old model and new data, selectively removing obsolete knowledge while preserving compatible historical patterns. This dynamic balance between stability and adaptability allows our method to achieve state-of-the-art performance in incremental SR. Specifically, SA-CAISR improves Recall@20 by 2.0% on average across datasets, while reducing memory usage by 97.5% and training time by 46.9% compared to the best baseline. This efficiency allows real-world systems to rapidly update user profiles with minimal computational overhead, ensuring more timely and accurate recommendations.


翻译:序列推荐旨在通过学习用户的历史交互序列来预测其下一个行为。在实际应用中,这些模型需要定期更新以适应新的交互和不断演变的用户偏好。尽管增量学习方法促进了此类更新,但它们面临着重大挑战:基于回放的方法会产生高昂的内存和计算成本,而基于正则化的方法往往难以丢弃过时或冲突的知识。为克服这些挑战,我们提出了SA-CAISR,一个阶段自适应与冲突感知的增量式序列推荐框架。作为一个无缓冲区的框架,SA-CAISR仅使用旧模型和新数据进行操作,直接解决了基于回放技术的高成本问题。SA-CAISR引入了一种新颖的Fisher加权知识筛选机制,通过估计旧模型与新数据之间的参数级冲突来动态识别过时知识,从而在保留兼容历史模式的同时选择性移除陈旧知识。这种稳定性与适应性之间的动态平衡使我们的方法在增量式序列推荐中实现了最先进的性能。具体而言,与最佳基线相比,SA-CAISR在多个数据集上平均将Recall@20提升了2.0%,同时内存使用量降低了97.5%,训练时间减少了46.9%。这种高效性使得实际系统能够以最小的计算开销快速更新用户画像,从而确保提供更及时、更准确的推荐。

0
下载
关闭预览

相关内容

数学上,序列是被排成一列的对象(或事件);这样每个元素不是在其他元素之前,就是在其他元素之后。这里,元素之间的顺序非常重要。
《序列推荐》最新综述
专知会员服务
22+阅读 · 2024年12月27日
【KDD2023】学习语言表示用于序列推荐
专知会员服务
11+阅读 · 2023年5月27日
【KDD2022】多行为超图增强Transformer的序列推荐
专知会员服务
29+阅读 · 2022年7月14日
专知会员服务
57+阅读 · 2021年6月30日
从Seq2seq到Attention模型到Self Attention(一)
量化投资与机器学习
76+阅读 · 2018年10月8日
深度学习在推荐系统中的应用综述(最全)
七月在线实验室
17+阅读 · 2018年5月5日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关VIP内容
《序列推荐》最新综述
专知会员服务
22+阅读 · 2024年12月27日
【KDD2023】学习语言表示用于序列推荐
专知会员服务
11+阅读 · 2023年5月27日
【KDD2022】多行为超图增强Transformer的序列推荐
专知会员服务
29+阅读 · 2022年7月14日
专知会员服务
57+阅读 · 2021年6月30日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员