Membership inference attacks (MIAs) are becoming standard tools for auditing the privacy of machine learning models. The leading attacks -- LiRA (Carlini et al., 2022) and RMIA (Zarifzadeh et al., 2024) -- appear to use distinct scoring strategies, while the recently proposed BASE (Lassila et al., 2025) was shown to be equivalent to RMIA, making it difficult for practitioners to choose among them. We show that all three are instances of a single exponential-family log-likelihood ratio framework, differing only in their distributional assumptions and the number of parameters estimated per data point. This unification reveals a hierarchy (BASE1-4) that connects RMIA and LiRA as endpoints of a spectrum of increasing model complexity. Within this framework, we identify variance estimation as the key bottleneck at small shadow-model budgets and propose BaVarIA, a Bayesian variance inference attack that replaces threshold-based parameter switching with conjugate normal-inverse-gamma priors. BaVarIA yields a Student-t predictive (BaVarIA-t) or a Gaussian with stabilized variance (BaVarIA-n), providing stable performance without additional hyperparameter tuning. Across 12 datasets and 7 shadow-model budgets, BaVarIA matches or improves upon LiRA and RMIA, with the largest gains in the practically important low-shadow-model and offline regimes.


翻译:成员推断攻击正逐渐成为评估机器学习模型隐私性的标准工具。主流攻击方法——LiRA(Carlini等人,2022年)与RMIA(Zarifzadeh等人,2024年)——似乎采用了不同的评分策略,而近期提出的BASE方法(Lassila等人,2025年)被证明与RMIA等价,这使得实践者难以在它们之间进行选择。本文证明这三种方法均属于统一的指数族对数似然比框架,其差异仅在于分布假设及每个数据点估计的参数数量。这一统一性揭示了一个连接RMIA与LiRA的层次结构(BASE1-4),二者构成模型复杂度递增谱系的两个端点。在此框架中,我们识别出方差估计是小规模影子模型预算下的关键瓶颈,并提出BaVarIA——一种贝叶斯方差推断攻击,该方法采用共轭正态-逆伽马先验替代基于阈值的参数切换机制。BaVarIA可生成学生t分布预测(BaVarIA-t)或具有稳定方差的⾼斯分布预测(BaVarIA-n),在无需额外超参数调优的情况下提供稳定的性能表现。在12个数据集和7种影子模型预算的测试中,BaVarIA达到或超越了LiRA与RMIA的性能,并在实际重要的低影子模型与离线场景中取得最显著的性能提升。

0
下载
关闭预览

相关内容

DeepSeek R1和推理模型,我有几点看法
专知会员服务
38+阅读 · 2025年2月10日
联邦学习中的成员推断攻击与防御:综述
专知会员服务
17+阅读 · 2024年12月15日
《红队分析工具中的混淆、隐蔽和非归属问题》最新79页
专知会员服务
17+阅读 · 2024年11月17日
万字长文带你梳理Llama开源家族:从Llama-1到Llama-3
专知会员服务
43+阅读 · 2024年4月22日
专知会员服务
23+阅读 · 2021年8月22日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
35+阅读 · 2020年6月3日
SemanticAdv:基于语义属性的对抗样本生成方法
机器之心
14+阅读 · 2019年7月12日
用深度学习揭示数据的因果关系
专知
28+阅读 · 2019年5月18日
从LeNet到SENet——卷积神经网络回顾
AI科技评论
13+阅读 · 2018年2月15日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月18日
VIP会员
最新内容
人工智能在战场行动中的演进及伊朗案例
专知会员服务
7+阅读 · 4月18日
美AI公司Anthropic推出网络安全模型“Mythos”
专知会员服务
4+阅读 · 4月18日
【博士论文】面向城市环境的可解释计算机视觉
大语言模型的自改进机制:技术综述与未来展望
《第四代军事特种作战部队选拔与评估》
专知会员服务
3+阅读 · 4月18日
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员