Uncovering which feature combinations are encoded by visual units is critical to understanding how images are transformed into representations that support recognition. While existing feature visualization approaches typically infer a unit's most exciting images, this is insufficient to reveal the manifold of transformations under which responses remain invariant, which is critical to generalization in vision. Here we introduce Stretch-and-Squeeze (SnS), a model-agnostic, gradient-free framework to systematically characterize a unit's maximally invariant stimuli, and its vulnerability to adversarial perturbations, in both biological and artificial visual systems. SnS frames these transformations as bi-objective optimization problems. To probe invariance, SnS seeks image perturbations that maximally alter (stretch) the representation of a reference stimulus in a given processing stage while preserving unit activation downstream (squeeze). To probe adversarial sensitivity, stretching and squeezing are reversed to maximally perturb unit activation while minimizing changes to the upstream representation. Applied to CNNs, SnS revealed invariant transformations that were farther from a reference image in pixel-space than those produced by affine transformations, while more strongly preserving the target unit's response. The discovered invariant images differed depending on the stage of the image representation used for optimization: pixel-level changes primarily affected luminance and contrast, while stretching mid- and late-layer representations mainly altered texture and pose. By measuring how well the hierarchical invariant images obtained for L2 robust networks were classified by humans and other observer networks, we discovered a substantial drop in their interpretability when the representation was stretched in deep layers, while the opposite trend was found for standard models.


翻译:揭示视觉单元编码哪些特征组合对于理解图像如何转化为支持识别的表征至关重要。虽然现有的特征可视化方法通常推断单元最敏感的刺激图像,但这不足以揭示响应保持不变的变换流形,而这对视觉泛化至关重要。本文提出拉伸-挤压(Stretch-and-Squeeze, SnS)框架——一种模型无关、无梯度的系统性方法,用于表征生物与人工视觉系统中单元的最大不变性刺激及其对抗扰动的脆弱性。SnS将此类变换构建为双目标优化问题:为探究不变性,SnS寻求在给定处理阶段最大程度改变(拉伸)参考刺激表征,同时保持下游单元激活(挤压)的图像扰动;为探究对抗敏感性,则反转拉伸与挤压操作,在最小化上游表征变化的同时最大程度扰动单元激活。将SnS应用于CNN时发现,其生成的不变性变换在像素空间中与参考图像的距离远大于仿射变换产生的距离,同时更稳定地保持目标单元的响应。优化所用图像表征阶段不同时,发现的不变图像亦存在差异:像素级变换主要影响亮度与对比度,而拉伸中高层表征则主要改变纹理与姿态。通过测量人类及其他观测网络对L2鲁棒网络所得层次化不变图像的分类准确率,发现当表征在深层被拉伸时,其可解释性显著下降,而标准模型则呈现相反趋势。

0
下载
关闭预览

相关内容

在无标注条件下适配视觉—语言模型:全面综述
专知会员服务
13+阅读 · 2025年8月9日
视觉识别中的可解释性综述
专知会员服务
23+阅读 · 2025年7月17日
多模态视觉语言表征学习研究综述
专知
27+阅读 · 2020年12月3日
一文概览基于深度学习的超分辨率重建架构
【学界】从可视化到新模型:纵览深度学习的视觉可解释性
GAN生成式对抗网络
10+阅读 · 2018年3月4日
特征工程的特征理解(一)
机器学习研究会
10+阅读 · 2017年10月23日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员