Recent breakthroughs in the field of semi-supervised learning have achieved results that match state-of-the-art traditional supervised learning methods. Most successful semi-supervised learning approaches in computer vision focus on leveraging huge amount of unlabeled data, learning the general representation via data augmentation and transformation, creating pseudo labels, implementing different loss functions, and eventually transferring this knowledge to more task-specific smaller models. In this paper, we aim to conduct our analyses on three different aspects of SimCLR, the current state-of-the-art semi-supervised learning framework for computer vision. First, we analyze properties of contrast learning on fine-tuning, as we understand that contrast learning is what makes this method so successful. Second, we research knowledge distillation through teacher-forcing paradigm. We observe that when the teacher and the student share the same base model, knowledge distillation will achieve better result. Finally, we study how transfer learning works and its relationship with the number of classes on different data sets. Our results indicate that transfer learning performs better when number of classes are smaller.


翻译:在半监督的学习领域,最近的突破取得了与最先进的传统监督的学习方法相匹配的成果。在计算机视野中,大多数成功的半监督的学习方法侧重于利用大量未贴标签的数据,通过数据增强和转换学习一般代表,通过数据增强和转换学习一般代表,创建假标签,实施不同的损失功能,并最终将这种知识传授给更具体任务的小模型。在本文件中,我们的目标是对SimCLR的三个不同方面进行分析,即目前最先进的计算机视觉半监督的学习框架。首先,我们分析微调对比学习的特性,因为我们理解,对比学习是使这种方法如此成功的原因。第二,我们研究通过师范模式蒸馏知识。我们观察到,当教师和学生共享相同的基础模型时,知识蒸馏将取得更好的结果。最后,我们研究转移学习如何奏效,以及它与不同数据集的班级数量之间的关系。我们的结果显示,在班级数量小时,转移学习表现得更好。

0
下载
关闭预览

相关内容

【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
32+阅读 · 2020年4月23日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
167+阅读 · 2020年3月18日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
9+阅读 · 2021年3月25日
Arxiv
11+阅读 · 2021年2月17日
Arxiv
17+阅读 · 2021年2月15日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员