Skip connection is an essential ingredient for modern deep models to be deeper and more powerful. Despite their huge success in normal scenarios (state-of-the-art classification performance on natural examples), we investigate and identify an interesting property of skip connections under adversarial scenarios, namely, the use of skip connections allows easier generation of highly transferable adversarial examples. Specifically, in ResNet-like models (with skip connections), we find that biasing backpropagation to favor gradients from skip connections--while suppressing those from residual modules via a decay factor--allows one to craft adversarial examples with high transferability. Based on this insight, we propose the Skip Gradient Method (SGM). Although starting from ResNet-like models in vision domains, we further extend SGM to more advanced architectures, including Vision Transformers (ViTs), models with varying-length paths, and other domains such as natural language processing. We conduct comprehensive transfer-based attacks against diverse model families, including ResNets, Transformers, Inceptions, Neural Architecture Search-based models, and Large Language Models (LLMs). The results demonstrate that employing SGM can greatly improve the transferability of crafted attacks in almost all cases. Furthermore, we demonstrate that SGM can still be effective under more challenging settings such as ensemble-based attacks, targeted attacks, and against defense equipped models. At last, we provide theoretical explanations and empirical insights on how SGM works. Our findings not only motivate new adversarial research into the architectural characteristics of models but also open up further challenges for secure model architecture design. Our code is available at https://github.com/mo666666/SGM.


翻译:跳跃连接是现代深度模型实现更深层、更强大性能的关键要素。尽管其在常规场景下(对自然样本的分类性能达到最先进水平)取得了巨大成功,本研究探究并识别了跳跃连接在对抗场景下的一个有趣特性,即使用跳跃连接能够更易于生成具有高可迁移性的对抗样本。具体而言,在类ResNet模型(具备跳跃连接)中,我们发现通过衰减因子抑制残差模块的梯度,同时使反向传播偏向于利用跳跃连接的梯度,能够构造出具有高可迁移性的对抗样本。基于这一洞见,我们提出了跳跃梯度方法(SGM)。虽然该方法最初源于视觉领域的类ResNet模型,但我们进一步将SGM扩展至更先进的架构,包括视觉Transformer(ViT)、具有可变长度路径的模型以及其他领域如自然语言处理。我们针对多种模型族开展了全面的基于迁移的攻击实验,涵盖ResNet、Transformer、Inception、基于神经架构搜索的模型以及大语言模型(LLM)。结果表明,在几乎所有情况下,采用SGM均能显著提升所构造攻击的可迁移性。此外,我们证明了SGM在更具挑战性的场景下依然有效,例如基于集成的攻击、定向攻击以及针对具备防御机制的模型。最后,我们从理论解释和实证分析两个角度阐明了SGM的作用机理。本研究不仅为探索模型架构特性的对抗性研究提供了新思路,也为安全模型架构设计提出了进一步挑战。代码已开源:https://github.com/mo666666/SGM。

0
下载
关闭预览

相关内容

跳跃连接可以解决网络层数较深的情况下梯度消失的问题,同时有助于梯度的反向传播,加快训练过程。
【牛津大学博士论文】序列决策中的迁移学习
专知会员服务
24+阅读 · 2024年11月10日
《多跳战术网络中 5G 及其他侧链路通信的作用》
专知会员服务
28+阅读 · 2024年6月6日
【伯克利博士论文】学习跨领域的可迁移表示
专知会员服务
47+阅读 · 2022年8月17日
专知会员服务
99+阅读 · 2020年12月8日
最新《深度强化学习中的迁移学习》综述论文
专知会员服务
157+阅读 · 2020年9月20日
迁移自适应学习最新综述,附21页论文下载
论文浅尝 | 常识用于回答生成式多跳问题
开放知识图谱
16+阅读 · 2018年11月24日
【迁移学习】简述迁移学习在深度学习中的应用
产业智能官
15+阅读 · 2018年1月9日
迁移学习在深度学习中的应用
专知
24+阅读 · 2017年12月24日
深度 | 迁移学习全面概述:从基本概念到相关研究
七月在线实验室
15+阅读 · 2017年8月15日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
31+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
最新内容
美海军“超配项目”
专知会员服务
0+阅读 · 54分钟前
《美陆军条例:陆军指挥政策(2026版)》
专知会员服务
10+阅读 · 4月21日
《军用自主人工智能系统的治理与安全》
专知会员服务
7+阅读 · 4月21日
《系统簇式多域作战规划范畴论框架》
专知会员服务
10+阅读 · 4月20日
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
31+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员