Deep neural networks for image classification remain vulnerable to adversarial examples -- small, imperceptible perturbations that induce misclassifications. In black-box settings, where only the final prediction is accessible, crafting targeted attacks that aim to misclassify into a specific target class is particularly challenging due to narrow decision regions. Current state-of-the-art methods often exploit the geometric properties of the decision boundary separating a source image and a target image rather than incorporating information from the images themselves. In contrast, we propose Targeted Edge-informed Attack (TEA), a novel attack that utilizes edge information from the target image to carefully perturb it, thereby producing an adversarial image that is closer to the source image while still achieving the desired target classification. Our approach consistently outperforms current state-of-the-art methods across different models in low query settings (nearly 70% fewer queries are used), a scenario especially relevant in real-world applications with limited queries and black-box access. Furthermore, by efficiently generating a suitable adversarial example, TEA provides an improved target initialization for established geometry-based attacks.


翻译:用于图像分类的深度神经网络仍然容易受到对抗样本的攻击——这些微小且难以察觉的扰动会导致错误分类。在黑盒设置中,仅能获取最终预测结果,由于决策区域狭窄,旨在将图像误分类为特定目标类别的目标攻击尤其具有挑战性。当前最先进的方法通常利用分隔源图像和目标图像的决策边界的几何特性,而非整合图像本身的信息。相比之下,我们提出了目标边缘信息攻击(TEA),这是一种新颖的攻击方法,它利用目标图像的边缘信息对其进行精细扰动,从而生成一个更接近源图像但仍能实现预期目标分类的对抗图像。在低查询设置下(查询次数减少近70%),我们的方法在不同模型上始终优于当前最先进的方法,这种场景在查询有限且仅能进行黑盒访问的实际应用中尤其相关。此外,通过高效生成合适的对抗样本,TEA为已建立的基于几何的攻击提供了改进的目标初始化方案。

0
下载
关闭预览

相关内容

图神经网络黑盒攻击近期进展
专知会员服务
19+阅读 · 2022年10月14日
对抗机器学习在网络入侵检测领域的应用
专知会员服务
35+阅读 · 2022年1月4日
【NeurIPS2021】基于贝叶斯优化的图分类对抗攻击
专知会员服务
18+阅读 · 2021年11月6日
专知会员服务
31+阅读 · 2021年9月11日
专知会员服务
23+阅读 · 2021年8月22日
【NeurIPS 2020】对图神经网络更切实的对抗式攻击
专知会员服务
24+阅读 · 2020年11月5日
论文浅尝 | 多内容实体和关系联合抽取的对抗训练
开放知识图谱
42+阅读 · 2018年12月4日
一文读懂目标检测:R-CNN、Fast R-CNN、Faster R-CNN、YOLO、SSD
七月在线实验室
11+阅读 · 2018年7月18日
深度学习时代的目标检测算法
炼数成金订阅号
40+阅读 · 2018年3月19日
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
最新内容
人工智能在战场行动中的演进及伊朗案例
专知会员服务
2+阅读 · 4月18日
美AI公司Anthropic推出网络安全模型“Mythos”
专知会员服务
2+阅读 · 4月18日
【博士论文】面向城市环境的可解释计算机视觉
大语言模型的自改进机制:技术综述与未来展望
《第四代军事特种作战部队选拔与评估》
专知会员服务
1+阅读 · 4月18日
相关基金
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员