Deep neural network models degrade significantly in the long-tailed data distribution, with the overall training data dominated by a small set of classes in the head, and the tail classes obtaining less training examples. Addressing the imbalance in the classes, attention in the related literature was given mainly to the adjustments carried out in the decision space in terms of either corrections performed at the logit level in order to compensate class-prior bias, with the least attention to the optimization process resulting from the adjustments introduced through the differences in the confidences among the samples. In the current study, we present the design of a class and confidence-aware re-weighting scheme for long-tailed learning. This scheme is purely based upon the loss level and has a complementary nature to the existing methods performing the adjustment of the logits. In the practical implementation stage of the proposed scheme, we use an Ω(p_t, f_c) function. This function enables the modulation of the contribution towards the training task based upon the confidence value of the prediction, as well as the relative frequency of the corresponding class. Our observations in the experiments are corroborated by significant experimental results performed on the CIFAR-100-LT, ImageNet-LT, and iNaturalist2018 datasets under various values of imbalance factors that clearly authenticate the theoretical discussions above.


翻译:深度神经网络模型在长尾数据分布下性能显著下降,整体训练数据由头部少数类别主导,而尾部类别获得的训练样本较少。针对类别不平衡问题,相关文献的关注点主要集中于决策空间中的调整,即通过对数层面的修正以补偿类别先验偏差,而对由样本间置信度差异引入调整所导致的优化过程关注最少。在本研究中,我们提出了一种用于长尾学习的类别与置信度感知重加权方案。该方案完全基于损失层面设计,并与现有执行对数调整的方法具有互补性。在所提方案的实际实现阶段,我们采用Ω(p_t, f_c)函数。该函数能够根据预测的置信度值以及对应类别的相对频率,调节其对训练任务的贡献。我们在CIFAR-100-LT、ImageNet-LT和iNaturalist2018数据集上,针对不同不平衡因子值进行的实验取得了显著成果,这些观察结果有力地验证了上述理论讨论。

0
下载
关闭预览

相关内容

深度长尾学习研究综述
专知会员服务
27+阅读 · 2025年2月12日
《长尾学习》最新2024年综述
专知会员服务
31+阅读 · 2024年8月3日
基于深度学习的类别增量学习算法综述
专知会员服务
43+阅读 · 2023年8月10日
【CVPR2023】自异构融合知识挖掘的长尾视觉识别
专知会员服务
16+阅读 · 2023年4月6日
【NUS】深度长尾学习综述,20页pdf172篇文献
专知会员服务
59+阅读 · 2021年10月14日
专知会员服务
24+阅读 · 2021年9月16日
「PPT」深度学习中的不确定性估计
专知
27+阅读 · 2019年7月20日
半监督深度学习小结:类协同训练和一致性正则化
深度学习在文本分类中的应用
AI研习社
13+阅读 · 2018年1月7日
国家自然科学基金
4+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Arxiv
0+阅读 · 1月14日
VIP会员
相关VIP内容
深度长尾学习研究综述
专知会员服务
27+阅读 · 2025年2月12日
《长尾学习》最新2024年综述
专知会员服务
31+阅读 · 2024年8月3日
基于深度学习的类别增量学习算法综述
专知会员服务
43+阅读 · 2023年8月10日
【CVPR2023】自异构融合知识挖掘的长尾视觉识别
专知会员服务
16+阅读 · 2023年4月6日
【NUS】深度长尾学习综述,20页pdf172篇文献
专知会员服务
59+阅读 · 2021年10月14日
专知会员服务
24+阅读 · 2021年9月16日
相关基金
国家自然科学基金
4+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员