Recent studies have observed that intermediate layers of foundation models often yield more discriminative representations than the final layer. While initially attributed to autoregressive pretraining, this phenomenon has also been identified in models trained via supervised and discriminative self-supervised objectives. In this paper, we conduct a comprehensive study to analyze the behavior of intermediate layers in pretrained vision transformers. Through extensive linear probing experiments across a diverse set of image classification benchmarks, we find that distribution shift between pretraining and downstream data is the primary cause of performance degradation in deeper layers. Furthermore, we perform a fine-grained analysis at the module level. Our findings reveal that standard probing of transformer block outputs is suboptimal; instead, probing the activation within the feedforward network yields the best performance under significant distribution shift, whereas the normalized output of the multi-head self-attention module is optimal when the shift is weak.


翻译:近期研究发现,基础模型的中间层通常比最终层产生更具判别性的表征。虽然这一现象最初被归因于自回归预训练,但在通过监督学习和判别性自监督目标训练的模型中也得到了证实。本文通过系统性研究分析预训练视觉Transformer中间层的行为特性。基于多样化图像分类基准的广泛线性探测实验表明,预训练数据与下游数据间的分布偏移是深层性能下降的主要原因。进一步地,我们在模块层面进行了细粒度分析。研究发现:对Transformer块输出进行标准探测并非最优方案;在显著分布偏移下,前馈网络内部的激活值探测可获得最佳性能;而当分布偏移较弱时,多头自注意力模块的归一化输出则成为最优选择。

0
下载
关闭预览

相关内容

【ICML2025】用于量化乐观双均值算法的逐层量化方法
专知会员服务
5+阅读 · 2025年5月24日
手把手教你用LDA特征选择
AI研习社
12+阅读 · 2017年8月21日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
VIP会员
最新内容
基于数据优化的人机协同与机器人僚机
专知会员服务
3+阅读 · 今天2:08
美陆军设想无人系统司令部
专知会员服务
3+阅读 · 4月15日
【博士论文】已对齐人工智能系统的持久脆弱性
扭曲还是编造?视频大语言模型幻觉研究综述
专知会员服务
3+阅读 · 4月15日
《采用系统思维应对混合战争》125页
专知会员服务
6+阅读 · 4月15日
战争机器学习:数据生态系统构建(155页)
专知会员服务
9+阅读 · 4月15日
相关VIP内容
【ICML2025】用于量化乐观双均值算法的逐层量化方法
专知会员服务
5+阅读 · 2025年5月24日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员