孪生网络已成为无监督表达学习领域的通用架构,现有方法通过最大化同一图像的两者增广的相似性使其避免“崩溃解(collapsing solutions)”问题。在这篇研究中,作者提出一种惊人的实证结果:Simple Siamese(SimSiam)网络甚至可以在无((1) negative sample pairs;(2)large batch;(3)momentum encoders)的情形下学习有意义的特征表达。

作者通过实验表明:对于损失与结构而言,“崩溃解”确实存在,但是“stop-gradient”操作对于避免“崩溃解”有非常重要的作用。作者提出了一种新颖的“stop-gradient”思想并通过实验对其进行了验证,该文所提SimSiam在ImageNet及下游任务上均取得了有竞争力的结果。作者期望:这个简单的基准方案可以驱动更多研员重新思考无监督表达学习中的孪生结构。

Method

成为VIP会员查看完整内容
20

相关内容

专知会员服务
31+阅读 · 2020年12月7日
【NeurIPS2020-北大】非凸优化裁剪算法的改进分析
专知会员服务
29+阅读 · 2020年10月11日
【KDD2020-清华大学】图对比编码的图神经网络预训练
专知会员服务
46+阅读 · 2020年6月18日
【CVPR2020-CMU】无数据模型选择,一种深度框架潜力
专知会员服务
23+阅读 · 2020年4月12日
对比自监督学习
深度学习自然语言处理
35+阅读 · 2020年7月15日
图像压缩哪家强?请看这份超详细对比
PaperWeekly
5+阅读 · 2018年7月10日
Arxiv
1+阅读 · 2021年1月6日
VIP会员
相关VIP内容
专知会员服务
31+阅读 · 2020年12月7日
【NeurIPS2020-北大】非凸优化裁剪算法的改进分析
专知会员服务
29+阅读 · 2020年10月11日
【KDD2020-清华大学】图对比编码的图神经网络预训练
专知会员服务
46+阅读 · 2020年6月18日
【CVPR2020-CMU】无数据模型选择,一种深度框架潜力
专知会员服务
23+阅读 · 2020年4月12日
相关资讯
对比自监督学习
深度学习自然语言处理
35+阅读 · 2020年7月15日
图像压缩哪家强?请看这份超详细对比
PaperWeekly
5+阅读 · 2018年7月10日
微信扫码咨询专知VIP会员