Personalization is crucial for aligning Large Language Model (LLM) outputs with individual user preferences and background knowledge. State-of-the-art solutions are based on retrieval augmentation, where relevant context from a user profile is retrieved for LLM consumption. These methods deal with a trade-off between exposing retrieved private data to cloud providers and relying on less capable local models. We introduce $P^3$, an interactive framework for high-quality personalization without revealing private profiles to server-side LLMs. In $P^3$, a large server-side model generates a sequence of $k$ draft tokens based solely on the user query, while a small client-side model, with retrieval access to the user's private profile, evaluates and modifies these drafts to better reflect user preferences. This process repeats until an end token is generated. Experiments on LaMP-QA, a recent benchmark consisting of three personalized question answering datasets, show that $P^3$ consistently outperforms both non-personalized server-side and personalized client-side baselines, achieving statistically significant improvements of $7.4%$ to $9%$ on average. Importantly, $P^3$ recovers $90.3%$ to $95.7%$ of the utility of a ``leaky'' upper-bound scenario in which the full profile is exposed to the large server-side model. Privacy analyses, including linkability and attribute inference attacks, indicate that $P^3$ preserves the privacy of a non-personalized server-side model, introducing only marginal additional leakage ($1.5%$--$3.5%$) compared to submitting a query without any personal context. Additionally, the framework is efficient for edge deployment, with the client-side model generating only $9.2%$ of the total tokens. These results demonstrate that $P^3$ provides a practical, effective solution for personalized generation with improved privacy.


翻译:个性化对于使大语言模型(LLM)的输出与个体用户偏好及背景知识对齐至关重要。当前最先进的解决方案基于检索增强技术,即从用户档案中检索相关上下文供LLM使用。这些方法面临一个权衡:要么将检索到的隐私数据暴露给云服务提供商,要么依赖能力较弱的本地模型。我们提出了 $P^3$,一个无需向服务器端LLM泄露隐私档案即可实现高质量个性化的交互式框架。在 $P^3$ 中,大型服务器端模型仅基于用户查询生成 $k$ 个草稿令牌序列,而一个能够检索用户隐私档案的小型客户端模型则对这些草稿进行评估和修改,以更好地反映用户偏好。此过程重复进行,直至生成结束令牌。在LaMP-QA(一个包含三个个性化问答数据集的最新基准)上的实验表明,$P^3$ 始终优于非个性化的服务器端基线以及个性化的客户端基线,平均实现了 $7.4%$ 到 $9%$ 的统计显著提升。重要的是,$P^3$ 恢复了“泄露”上限场景(即完整档案暴露给大型服务器端模型)下 $90.3%$ 到 $95.7%$ 的效用。隐私分析(包括可链接性攻击和属性推断攻击)表明,$P^3$ 保持了非个性化服务器端模型的隐私性,与提交不含任何个人上下文的查询相比,仅引入了微小的额外泄露($1.5%$--$3.5%$)。此外,该框架适用于边缘部署,效率高,客户端模型仅生成了总令牌数的 $9.2%$。这些结果表明,$P^3$ 为个性化生成提供了一个实用、有效且隐私性更强的解决方案。

0
下载
关闭预览

相关内容

服务器,也称伺服器,是提供计算服务的设备。由于服务器需要响应服务请求,并进行处理,因此一般来说服务器应具备承担服务并且保障服务的能力。
服务器的构成包括处理器、硬盘、内存、系统总线等,和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
大语言模型中的检索与结构化增强生成综述
专知会员服务
32+阅读 · 2025年9月17日
综述:面向移动端大语言模型的隐私与安全
专知会员服务
19+阅读 · 2025年9月7日
个性化大型语言模型综述:进展与未来方向
专知会员服务
43+阅读 · 2025年2月18日
定制化大型语言模型的图检索增强生成综述
专知会员服务
37+阅读 · 2025年1月28日
【新书】大规模语言模型的隐私与安全,
专知会员服务
29+阅读 · 2024年12月4日
大规模语言模型的个性化:综述
专知会员服务
43+阅读 · 2024年11月4日
微软最新《检索增强生成(RAG)》综述
专知会员服务
56+阅读 · 2024年9月24日
大语言模型中的提示隐私保护
专知会员服务
24+阅读 · 2024年7月24日
探究检索增强下的大模型知识边界
专知会员服务
56+阅读 · 2023年7月25日
用户画像基础
DataFunTalk
12+阅读 · 2020年8月1日
强化学习与文本生成
微信AI
41+阅读 · 2019年4月4日
【知识图谱】基于知识图谱的用户画像技术
产业智能官
103+阅读 · 2019年1月9日
差分隐私保护:从入门到脱坑
FreeBuf
17+阅读 · 2018年9月10日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
VIP会员
相关VIP内容
大语言模型中的检索与结构化增强生成综述
专知会员服务
32+阅读 · 2025年9月17日
综述:面向移动端大语言模型的隐私与安全
专知会员服务
19+阅读 · 2025年9月7日
个性化大型语言模型综述:进展与未来方向
专知会员服务
43+阅读 · 2025年2月18日
定制化大型语言模型的图检索增强生成综述
专知会员服务
37+阅读 · 2025年1月28日
【新书】大规模语言模型的隐私与安全,
专知会员服务
29+阅读 · 2024年12月4日
大规模语言模型的个性化:综述
专知会员服务
43+阅读 · 2024年11月4日
微软最新《检索增强生成(RAG)》综述
专知会员服务
56+阅读 · 2024年9月24日
大语言模型中的提示隐私保护
专知会员服务
24+阅读 · 2024年7月24日
探究检索增强下的大模型知识边界
专知会员服务
56+阅读 · 2023年7月25日
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员