Recent advancements in autoregressive Large Language Models (LLMs) have achieved significant milestones, largely attributed to their scalability, often referred to as the "scaling law". Inspired by these achievements, there has been a growing interest in adapting LLMs for Recommendation Systems (RecSys) by reformulating RecSys tasks into generative problems. However, these End-to-End Generative Recommendation (E2E-GR) methods tend to prioritize idealized goals, often at the expense of the practical advantages offered by traditional Deep Learning based Recommendation Models (DLRMs) in terms of in features, architecture, and practices. This disparity between idealized goals and practical needs introduces several challenges and limitations, locking the scaling law in industrial RecSys. In this paper, we introduce a large user model (LUM) that addresses these limitations through a three-step paradigm, designed to meet the stringent requirements of industrial settings while unlocking the potential for scalable recommendations. Our extensive experimental evaluations demonstrate that LUM outperforms both state-of-the-art DLRMs and E2E-GR approaches. Notably, LUM exhibits excellent scalability, with performance improvements observed as the model scales up to 7 billion parameters. Additionally, we have successfully deployed LUM in an industrial application, where it achieved significant gains in an A/B test, further validating its effectiveness and practicality.


翻译:近年来,自回归大语言模型(LLMs)取得了重大进展,这主要归功于其可扩展性,通常被称为“缩放定律”。受这些成就的启发,通过将推荐系统(RecSys)任务重新表述为生成问题,将LLMs应用于推荐系统的兴趣日益增长。然而,这些端到端生成式推荐(E2E-GR)方法往往优先考虑理想化的目标,通常以牺牲传统基于深度学习的推荐模型(DLRMs)在特征、架构和实践方面提供的实际优势为代价。理想化目标与实际需求之间的这种差异带来了若干挑战和限制,锁定了工业推荐系统中的缩放定律。本文介绍了一种大规模用户模型(LUM),它通过一个三步范式解决了这些限制,旨在满足工业环境的严格要求,同时释放可扩展推荐的潜力。我们广泛的实验评估表明,LUM的性能优于最先进的DLRMs和E2E-GR方法。值得注意的是,LUM表现出卓越的可扩展性,当模型规模扩展到70亿参数时,观察到了性能提升。此外,我们已成功将LUM部署在一个工业应用中,在A/B测试中取得了显著收益,进一步验证了其有效性和实用性。

0
下载
关闭预览

相关内容

大语言模型在多模态推荐系统中的应用综述
专知会员服务
17+阅读 · 2025年5月17日
大规模语言模型增强推荐系统:分类、趋势、应用与未来
专知会员服务
40+阅读 · 2024年12月22日
大语言模型在序列推荐中的应用
专知会员服务
19+阅读 · 2024年11月12日
【RecSys 2023教程】大型语言模型推荐,101页ppt
专知会员服务
71+阅读 · 2023年11月12日
推荐系统主流召回方法综述
AINLP
10+阅读 · 2020年7月16日
自动特征工程在推荐系统中的研究
DataFunTalk
10+阅读 · 2019年12月20日
初学者系列:推荐系统Wide & Deep Learning详解
推荐召回算法之深度召回模型串讲
AINLP
22+阅读 · 2019年6月14日
新书推荐《推荐系统进展:方法与技术》
LibRec智能推荐
13+阅读 · 2019年3月18日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关VIP内容
大语言模型在多模态推荐系统中的应用综述
专知会员服务
17+阅读 · 2025年5月17日
大规模语言模型增强推荐系统:分类、趋势、应用与未来
专知会员服务
40+阅读 · 2024年12月22日
大语言模型在序列推荐中的应用
专知会员服务
19+阅读 · 2024年11月12日
【RecSys 2023教程】大型语言模型推荐,101页ppt
专知会员服务
71+阅读 · 2023年11月12日
相关基金
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员