Personalized AI agents rely on access to a user's digital footprint, which often includes sensitive data from private emails, chats and purchase histories. Yet this access creates a fundamental societal and privacy risk: systems lacking social-context awareness can unintentionally expose user secrets, threatening digital well-being. We introduce PrivacyBench, a benchmark with socially grounded datasets containing embedded secrets and a multi-turn conversational evaluation to measure secret preservation. Testing Retrieval-Augmented Generation (RAG) assistants reveals that they leak secrets in up to 26.56% of interactions. A privacy-aware prompt lowers leakage to 5.12%, yet this measure offers only partial mitigation. The retrieval mechanism continues to access sensitive data indiscriminately, which shifts the entire burden of privacy preservation onto the generator. This creates a single point of failure, rendering current architectures unsafe for wide-scale deployment. Our findings underscore the urgent need for structural, privacy-by-design safeguards to ensure an ethical and inclusive web for everyone.


翻译:个性化AI代理依赖于访问用户的数字足迹,这些足迹通常包含来自私人电子邮件、聊天记录和购买历史等敏感数据。然而,这种访问带来了根本性的社会与隐私风险:缺乏社交情境感知的系统可能无意中暴露用户秘密,从而威胁数字福祉。我们提出了PrivacyBench,这是一个包含嵌入秘密的社会情境数据集基准,以及用于衡量秘密保留能力的多轮对话评估方法。对检索增强生成(RAG)助手的测试表明,其在高达26.56%的交互中泄露秘密。采用隐私感知提示可将泄露率降低至5.12%,但该措施仅能提供部分缓解。检索机制仍会不加区分地访问敏感数据,从而将隐私保护的全部负担转移至生成器。这形成了单点故障,使得当前架构在大规模部署中存在安全隐患。我们的研究结果强调,迫切需要构建结构化的、隐私优先的设计保障机制,以确保为所有人建立一个合乎伦理且包容的网络环境。

0
下载
关闭预览

相关内容

差分隐私全指南:从理论基础到用户期望
专知会员服务
13+阅读 · 2025年9月8日
【ICML2021-Tutorial】机器学习隐私,90页ppt
专知会员服务
38+阅读 · 2021年7月27日
专知会员服务
40+阅读 · 2020年12月20日
「联邦学习隐私保护 」最新2022研究综述
专知
16+阅读 · 2022年4月1日
《人工智能安全测评白皮书》,99页pdf
专知
36+阅读 · 2022年2月26日
联邦学习安全与隐私保护研究综述
专知
12+阅读 · 2020年8月7日
用户画像基础
DataFunTalk
12+阅读 · 2020年8月1日
人工智能训练师的再定义
竹间智能Emotibot
10+阅读 · 2019年5月15日
【专题】美国隐私立法进展的总体分析
蚂蚁金服评论
11+阅读 · 2019年4月25日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月27日
Arxiv
0+阅读 · 1月14日
VIP会员
相关VIP内容
差分隐私全指南:从理论基础到用户期望
专知会员服务
13+阅读 · 2025年9月8日
【ICML2021-Tutorial】机器学习隐私,90页ppt
专知会员服务
38+阅读 · 2021年7月27日
专知会员服务
40+阅读 · 2020年12月20日
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员