The use of machine learning (ML) has become increasingly prevalent in various domains, highlighting the importance of understanding and ensuring its safety. One pressing concern is the vulnerability of ML applications to model stealing attacks. These attacks involve adversaries attempting to recover a learned model through limited query-response interactions, such as those found in cloud-based services or on-chip artificial intelligence interfaces. While existing literature proposes various attack and defense strategies, these often lack a theoretical foundation and standardized evaluation criteria. In response, this work presents a framework called ``Model Privacy'', providing a foundation for comprehensively analyzing model stealing attacks and defenses. We establish a rigorous formulation for the threat model and objectives, propose methods to quantify the goodness of attack and defense strategies, and analyze the fundamental tradeoffs between utility and privacy in ML models. Our developed theory offers valuable insights into enhancing the security of ML models, especially highlighting the importance of the attack-specific structure of perturbations for effective defenses. We demonstrate the application of model privacy from the defender's perspective through various learning scenarios. Extensive experiments corroborate the insights and the effectiveness of defense mechanisms developed under the proposed framework.


翻译:机器学习(ML)在各领域的应用日益广泛,凸显了理解并确保其安全性的重要性。一个紧迫的问题是机器学习应用在模型窃取攻击面前的脆弱性。此类攻击涉及攻击者试图通过有限的查询-响应交互(例如基于云的服务或片上人工智能接口中的交互)来恢复已学习模型。尽管现有文献提出了多种攻击与防御策略,但这些策略往往缺乏理论基础和标准化的评估标准。为此,本研究提出了一个名为“模型隐私”的框架,为全面分析模型窃取攻击与防御奠定了基础。我们建立了威胁模型与目标的严格表述,提出了量化攻击与防御策略优劣的方法,并分析了机器学习模型中效用与隐私之间的基本权衡。我们发展的理论为增强机器学习模型的安全性提供了有价值的见解,尤其强调了针对攻击特定结构的扰动对于有效防御的重要性。我们通过多种学习场景,从防御者的角度展示了模型隐私的应用。大量实验证实了所获见解以及在该框架下发展的防御机制的有效性。

0
下载
关闭预览

相关内容

联邦学习中的成员推断攻击与防御:综述
专知会员服务
17+阅读 · 2024年12月15日
国家自然科学基金
18+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
18+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员