The increased deployment of machine learning inference in various applications has sparked privacy concerns. In response, private inference (PI) protocols have been created to allow parties to perform inference without revealing their sensitive data. Despite recent advances in the efficiency of PI, most current methods assume a semi-honest threat model where the data owner is honest and adheres to the protocol. However, in reality, data owners can have different motivations and act in unpredictable ways, making this assumption unrealistic. To demonstrate how a malicious client can compromise the semi-honest model, we first designed an inference manipulation attack against a range of state-of-the-art private inference protocols. This attack allows a malicious client to modify the model output with 3x to 8x fewer queries than current black-box attacks. Motivated by the attacks, we proposed and implemented RobPI, a robust and resilient private inference protocol that withstands malicious clients. RobPI integrates a distinctive cryptographic protocol that bolsters security by weaving encryption-compatible noise into the logits and features of private inference, thereby efficiently warding off malicious-client attacks. Our extensive experiments on various neural networks and datasets show that RobPI achieves ~91.9% attack success rate reduction and increases more than 10x the number of queries required by malicious-client attacks.


翻译:随着机器学习推理在各种应用中的部署日益增多,隐私问题也日益凸显。为此,隐私推理协议应运而生,使得各方能够在不泄露敏感数据的情况下执行推理。尽管隐私推理的效率在近期取得了进展,但当前大多数方法都基于半诚实威胁模型,即假设数据所有者是诚实的并遵守协议。然而,在现实中,数据所有者可能出于不同动机并以不可预测的方式行事,使得这一假设不切实际。为了展示恶意客户端如何破坏半诚实模型,我们首先针对一系列最先进的隐私推理协议设计了一种推理操纵攻击。该攻击允许恶意客户端以比当前黑盒攻击少3到8倍的查询次数来修改模型输出。受这些攻击的启发,我们提出并实现了RobPI,一个能够抵御恶意客户端的鲁棒且具有弹性的隐私推理协议。RobPI集成了一种独特的密码学协议,通过将加密兼容的噪声融入隐私推理的对数概率和特征中,从而增强了安全性,有效抵御了恶意客户端攻击。我们在多种神经网络和数据集上进行的大量实验表明,RobPI实现了约91.9%的攻击成功率降低,并将恶意客户端攻击所需的查询次数提高了10倍以上。

0
下载
关闭预览

相关内容

鲁棒和隐私保护的协同学习
专知会员服务
38+阅读 · 2021年12月22日
专知会员服务
23+阅读 · 2021年8月22日
《隐私计算白皮书(2021年)》正式发布(附下载链接)
专知会员服务
96+阅读 · 2021年7月22日
【AAAI2021】知识迁移的机器学习成员隐私保护,57页ppt
专知会员服务
28+阅读 · 2021年2月9日
专知会员服务
40+阅读 · 2020年12月20日
《人工智能安全测评白皮书》,99页pdf
专知
36+阅读 · 2022年2月26日
「因果推理」概述论文,13页pdf
专知
16+阅读 · 2021年3月20日
联邦学习安全与隐私保护研究综述
专知
12+阅读 · 2020年8月7日
因果推理学习算法资源大列表
专知
27+阅读 · 2019年3月3日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
最新内容
Palantir AIP平台:连接智能体与决策
专知会员服务
7+阅读 · 今天1:22
《美海军软件测试战略》90页slides
专知会员服务
7+阅读 · 今天1:00
面向具身智能与机器人仿真的三维生成:综述
专知会员服务
8+阅读 · 4月30日
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员