Recently, Zhang et al. (2018) proposed an interesting model of attention guidance that uses visual features learnt by convolutional neural networks for object recognition. I adapted this model for search experiments with accuracy as the measure of performance. Simulation of our previously published feature and conjunction search experiments revealed that CNN-based search model considerably underestimates human attention guidance by simple visual features. A simple explanation is that the model has no bottom-up guidance of attention. Another view might be that standard CNNs do not learn features required for human-like attention guidance.


翻译:最近,张等人(2018年)提出了一个有趣的关注指导模式,该模式使用进化神经网络所学的视觉特征来识别物体。我对这个模式进行了精确的搜索实验,以此作为性能的衡量标准。模拟我们以前出版的特征和组合搜索实验表明,基于CNN的搜索模式通过简单的视觉特征大大低估了人类关注指导。一个简单的解释是,该模式没有自下而上的关注指导。另一种观点可能是,标准的CNN没有学习到像人一样的关注指导所需要的特征。

0
下载
关闭预览

相关内容

Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Arxiv
27+阅读 · 2020年12月24日
Viewpoint Estimation-Insights & Model
Arxiv
3+阅读 · 2018年7月3日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
相关论文
Top
微信扫码咨询专知VIP会员