Max pooling is the de facto standard for converting anomaly score maps into image-level decisions in memory-bank-based unsupervised anomaly detection (UAD). However, because it relies on a single extreme response, it discards most information about how anomaly evidence is distributed and structured across the image, often causing normal and anomalous scores to overlap. We propose StructCore, a training-free, structure-aware image-level scoring method that goes beyond max pooling. Given an anomaly score map, StructCore computes a low-dimensional structural descriptor phi(S) that captures distributional and spatial characteristics, and refines image-level scoring via a diagonal Mahalanobis calibration estimated from train-good samples, without modifying pixel-level localization. StructCore achieves image-level AUROC scores of 99.6% on MVTec AD and 98.4% on VisA, demonstrating robust image-level anomaly detection by exploiting structural signatures missed by max pooling.


翻译:在基于记忆库的无监督异常检测中,最大池化是将异常分数图转换为图像级决策的事实标准。然而,由于其依赖于单一极端响应,它丢弃了关于异常证据在图像中如何分布和结构化的大部分信息,常常导致正常与异常分数重叠。我们提出StructCore,一种超越最大池化的免训练、结构感知图像级评分方法。给定一个异常分数图,StructCore计算一个低维结构描述符phi(S),该描述符捕捉分布和空间特征,并通过从训练正常样本估计的对角马氏距离校准来优化图像级评分,而无需修改像素级定位。StructCore在MVTec AD上实现了99.6%的图像级AUROC分数,在VisA上实现了98.4%,通过利用被最大池化忽略的结构特征,展示了鲁棒的图像级异常检测能力。

0
下载
关闭预览

相关内容

专知会员服务
34+阅读 · 2021年9月16日
基于深度学习的图异常检测技术综述
专知会员服务
86+阅读 · 2021年7月28日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
75+阅读 · 2020年4月24日
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
32+阅读 · 2020年4月23日
异常检测(Anomaly Detection)综述
极市平台
20+阅读 · 2020年10月24日
【CVPR2019】弱监督图像分类建模
深度学习大讲堂
38+阅读 · 2019年7月25日
半监督深度学习小结:类协同训练和一致性正则化
基于机器学习的KPI自动化异常检测系统
运维帮
13+阅读 · 2017年8月16日
侦测欺诈交易(异常点检测)
GBASE数据工程部数据团队
20+阅读 · 2017年5月10日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关VIP内容
专知会员服务
34+阅读 · 2021年9月16日
基于深度学习的图异常检测技术综述
专知会员服务
86+阅读 · 2021年7月28日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
75+阅读 · 2020年4月24日
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
32+阅读 · 2020年4月23日
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员