Text embeddings enable numerous NLP applications but face severe privacy risks from embedding inversion attacks, which can expose sensitive attributes or reconstruct raw text. Existing differential privacy defenses assume uniform sensitivity across embedding dimensions, leading to excessive noise and degraded utility. We propose SPARSE, a user-centric framework for concept-specific privacy protection in text embeddings. SPARSE combines (1) differentiable mask learning to identify privacy-sensitive dimensions for user-defined concepts, and (2) the Mahalanobis mechanism that applies elliptical noise calibrated by dimension sensitivity. Unlike traditional spherical noise injection, SPARSE selectively perturbs privacy-sensitive dimensions while preserving non-sensitive semantics. Evaluated across six datasets with three embedding models and attack scenarios, SPARSE consistently reduces privacy leakage while achieving superior downstream performance compared to state-of-the-art DP methods.


翻译:文本嵌入技术为众多自然语言处理应用提供了支持,但面临着嵌入反演攻击带来的严重隐私风险,此类攻击可能暴露敏感属性或重构原始文本。现有的差分隐私防御方法假设嵌入维度间的敏感性是均匀的,导致噪声添加过度且效用降低。本文提出SPARSE,一种以用户为中心的、面向文本嵌入中特定概念的隐私保护框架。SPARSE结合了(1)可微分掩码学习,用于识别用户定义概念的隐私敏感维度,以及(2)马氏机制,该机制根据维度敏感性校准并施加椭圆噪声。与传统的球形噪声注入方法不同,SPARSE选择性地扰动隐私敏感维度,同时保留非敏感语义。通过在六个数据集上使用三种嵌入模型和攻击场景进行评估,SPARSE在降低隐私泄露方面表现一致,且与最先进的差分隐私方法相比,实现了更优的下游任务性能。

0
下载
关闭预览

相关内容

计算机视觉领域的后门攻击与防御:综述
专知会员服务
19+阅读 · 2025年9月13日
深度学习模型反演攻击与防御:全面综述
专知会员服务
26+阅读 · 2025年2月3日
深度学习模型安全:威胁与防御,176页pdf
专知会员服务
28+阅读 · 2024年12月13日
专知会员服务
48+阅读 · 2021年5月17日
专知会员服务
96+阅读 · 2021年1月17日
专知会员服务
99+阅读 · 2020年12月8日
综述——隐私保护集合交集计算技术研究
计算机研究与发展
22+阅读 · 2017年10月24日
网络安全态势感知浅析
计算机与网络安全
18+阅读 · 2017年10月13日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员