The field of Weakly Supervised Learning (WSL) has recently seen a surge of popularity, with numerous papers addressing different types of "supervision deficiencies", namely: poor quality, non adaptability, and insufficient quantity of labels. Regarding quality, label noise can be of different types, including completely-at-random, at-random or even not-at-random. All these kinds of label noise are addressed separately in the literature, leading to highly specialized approaches. This paper proposes an original, encompassing, view of Weakly Supervised Learning, which results in the design of generic approaches capable of dealing with any kind of label noise. For this purpose, an alternative setting called "Biquality data" is used. It assumes that a small trusted dataset of correctly labeled examples is available, in addition to an untrusted dataset of noisy examples. In this paper, we propose a new reweigthing scheme capable of identifying noncorrupted examples in the untrusted dataset. This allows one to learn classifiers using both datasets. Extensive experiments that simulate several types of label noise and that vary the quality and quantity of untrusted examples, demonstrate that the proposed approach outperforms baselines and state-of-the-art approaches.


翻译:微弱监督学习(WSL)领域最近出现了受欢迎程度的激增,许多论文涉及不同类型的“监督缺陷”,即:质量差、不适应性和标签数量不足。关于质量,标签噪音可以是不同类型的,包括完全随机、随机、甚至是非随机的。所有这些类型的标签噪音都在文献中单独处理,导致高度专业化的方法。本文件提出了一个原始的、包含的、从弱监督学习的观点,从而导致设计出能够处理任何标签噪音的通用方法。为此,使用了称为“Bilenical Data”的替代设置。它假定除了一个不可信的噪音实例外,还有一套小的、可信的、有正确标签的例子的数据集。在本文中,我们提出了一个新的重温格方法,能够找出不可靠数据集中不固定的例子。这使人们能够用两种数据集学习分类方法。广泛的实验模拟了几种标签噪音,并改变了不可靠的基准方法的质量和数量。

0
下载
关闭预览

相关内容

可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
132+阅读 · 2020年5月14日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
167+阅读 · 2020年3月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Arxiv
0+阅读 · 2021年6月11日
Arxiv
7+阅读 · 2021年5月25日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
17+阅读 · 2018年12月10日
Arxiv
6+阅读 · 2018年12月10日
VIP会员
相关VIP内容
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
相关论文
Arxiv
0+阅读 · 2021年6月11日
Arxiv
7+阅读 · 2021年5月25日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
17+阅读 · 2018年12月10日
Arxiv
6+阅读 · 2018年12月10日
Top
微信扫码咨询专知VIP会员