We investigate finite-time Lyapunov exponents (FTLEs), a measure for exponential separation of input perturbations, of deep neural networks within the framework of continuous-depth neural ODEs. We demonstrate that FTLEs are powerful organizers for input-output dynamics, allowing for better interpretability and the comparison of distinct model architectures. We establish a direct connection between Lyapunov exponents and adversarial vulnerability, and propose a novel training algorithm that improves robustness by FTLE regularization. The key idea is to suppress exponents far from zero in the early stage of the input dynamics. This approach enhances robustness and reduces computational cost compared to full-interval regularization, as it avoids a full ``double'' backpropagation.


翻译:本文研究了连续深度神经ODE框架下深度神经网络的有限时间李雅普诺夫指数(FTLEs)——一种衡量输入扰动指数分离程度的指标。我们证明FTLEs是输入输出动力学的有效组织工具,能够提升模型可解释性并支持不同架构的比较。我们建立了李雅普诺夫指数与对抗脆弱性之间的直接关联,并提出一种通过FTLE正则化提升鲁棒性的新型训练算法。其核心思想是在输入动力学的早期阶段抑制远离零点的指数。相较于全区间正则化方法,该策略通过避免完整的“双重”反向传播过程,在提升鲁棒性的同时显著降低了计算成本。

0
下载
关闭预览

相关内容

【NeurIPS2024】协作!迈向用于路径问题的鲁棒神经方法
专知会员服务
15+阅读 · 2024年10月9日
【牛津大学博士论文】图神经网络鲁棒机器学习,173页pdf
《有限时间范围鲁棒性在导弹交战中的应用》165页
专知会员服务
39+阅读 · 2024年4月8日
【Nature machine intelligence】闭型连续时间神经网络
专知会员服务
30+阅读 · 2022年11月17日
专知会员服务
20+阅读 · 2021年9月14日
【NeurIPS2020】可靠图神经网络鲁棒聚合
专知会员服务
20+阅读 · 2020年11月6日
神经网络常微分方程 (Neural ODEs) 解析
AI科技评论
42+阅读 · 2019年8月9日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员