Understanding how neural networks rely on visual cues offers a human-interpretable view of their internal decision processes. The cue-conflict benchmark has been influential in probing shape-texture preference and in motivating the insight that stronger, human-like shape bias is often associated with improved in-domain performance. However, we find that the current stylization-based instantiation can yield unstable and ambiguous bias estimates. Specifically, stylization may not reliably instantiate perceptually valid and separable cues nor control their relative informativeness, ratio-based bias can obscure absolute cue sensitivity, and restricting evaluation to preselected classes can distort model predictions by ignoring the full decision space. Together, these factors can confound preference with cue validity, cue balance, and recognizability artifacts. We introduce REFINED-BIAS, an integrated dataset and evaluation framework for reliable and interpretable shape-texture bias diagnosis. REFINED-BIAS constructs balanced, human- and model- recognizable cue pairs using explicit definitions of shape and texture, and measures cue-specific sensitivity over the full label space via a ranking-based metric, enabling fairer cross-model comparisons. Across diverse training regimes and architectures, REFINED-BIAS enables fairer cross-model comparison, more faithful diagnosis of shape and texture biases, and clearer empirical conclusions, resolving inconsistencies that prior cue-conflict evaluations could not reliably disambiguate.


翻译:理解神经网络如何依赖视觉线索,为解读其内部决策过程提供了人类可理解的视角。线索冲突基准在探究形状-纹理偏好方面具有重要影响,并启发我们认识到:更强、更接近人类认知的形状偏好通常与领域内性能提升相关。然而,我们发现当前基于风格化的实现方式可能产生不稳定且模糊的偏好估计。具体而言,风格化可能无法可靠地实例化感知有效且可分离的线索,也无法控制其相对信息量;基于比率的偏好度量可能掩盖绝对线索敏感性;而将评估限制在预选类别中,会因忽略完整决策空间而扭曲模型预测。这些因素共同作用,可能导致偏好与线索有效性、线索平衡性及可识别性伪影相互混淆。我们提出REFINED-BIAS——一个用于可靠且可解释的形状-纹理偏好诊断的集成数据集与评估框架。该框架通过明确定义形状与纹理特征,构建平衡的、人类与模型均可识别的线索对,并采用基于排序的度量方法在全标签空间内测量特定线索敏感性,从而实现更公平的跨模型比较。在多种训练机制与架构中,REFINED-BIAS能够实现更公平的跨模型对比、更准确的形状与纹理偏好诊断,以及更清晰的实证结论,解决了先前线索冲突评估方法无法可靠辨别的矛盾现象。

0
下载
关闭预览

相关内容

【MIT博士论文】基于数据的模型可靠性视角,322页pdf
专知会员服务
39+阅读 · 2024年3月25日
专知会员服务
63+阅读 · 2021年9月20日
专知会员服务
223+阅读 · 2020年8月1日
基于图神经网络的知识图谱研究进展
AI科技评论
21+阅读 · 2020年8月31日
深度学习模型可解释性的研究进展
专知
26+阅读 · 2020年8月1日
深度学习可解释性研究进展
专知
19+阅读 · 2020年6月26日
图神经网络最近这么火,不妨看看我们精选的这七篇
人工智能前沿讲习班
37+阅读 · 2018年12月10日
神经网络可解释性最新进展
专知
18+阅读 · 2018年3月10日
【AAAI专题】论文分享:以生物可塑性为核心的类脑脉冲神经网络
中国科学院自动化研究所
15+阅读 · 2018年1月23日
国家自然科学基金
0+阅读 · 2016年12月31日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Arxiv
0+阅读 · 3月5日
Arxiv
0+阅读 · 2月16日
VIP会员
最新内容
世界动作模型: 具身AI的下一个前沿
专知会员服务
1+阅读 · 今天12:28
全球十大防空反导系统:列表、射程与用途
专知会员服务
10+阅读 · 今天3:53
相关基金
国家自然科学基金
0+阅读 · 2016年12月31日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员