As a kind of generative self-supervised learning methods, generative adversarial nets have been widely studied in the field of anomaly detection. However, the representation learning ability of the generator is limited since it pays too much attention to pixel-level details, and generator is difficult to learn abstract semantic representations from label prediction pretext tasks as effective as discriminator. In order to improve the representation learning ability of generator, we propose a self-supervised learning framework combining generative methods and discriminative methods. The generator no longer learns representation by reconstruction error, but the guidance of discriminator, and could benefit from pretext tasks designed for discriminative methods. Our discriminative-generative representation learning method has performance close to discriminative methods and has a great advantage in speed. Our method used in one-class anomaly detection task significantly outperforms several state-of-the-arts on multiple benchmark data sets, increases the performance of the top-performing GAN-based baseline by 6% on CIFAR-10 and 2% on MVTAD.


翻译:作为一种基因自监督的学习方法,基因对抗网在异常检测领域得到了广泛的研究,然而,基因对抗网的代表性学习能力有限,因为它过于关注像素层的细节,而且发电机很难从标签预测的借口任务中学习抽象的语义表达方式,因为标签的预言任务对歧视者来说是有效的。为了提高发电机的代表性学习能力,我们提议了一个自我监督的学习框架,将基因化方法与歧视方法结合起来。发电机不再通过重建错误来学习代表性,而学习歧视者的指导,并且可以受益于为歧视方法设计的借口任务。我们的歧视-基因代表学习方法的性能接近于歧视方法,并且具有很大的优势。我们在单级异常检测任务中使用的方法大大优于多个基准数据集上的一些状态,在CIFAR-10和MVTAD上将业绩最佳的GAN基线的性能提高6%。

0
下载
关闭预览

相关内容

专知会员服务
34+阅读 · 2021年9月16日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
97+阅读 · 2020年5月31日
专知会员服务
54+阅读 · 2019年12月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Deep Learning for Generic Object Detection: A Survey
Arxiv
14+阅读 · 2018年9月6日
VIP会员
相关资讯
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员