Deep neural networks (DNNs) have become integral to a wide range of scientific and practical applications due to their flexibility and strong predictive performance. Despite their accuracy, however, DNNs frequently exhibit poor calibration, often assigning overly confident probabilities to incorrect predictions. This limitation underscores the growing need for integrated mechanisms that provide reliable uncertainty estimation. In this article, we compare two prominent approaches for uncertainty quantification: a Bayesian approximation via Monte Carlo Dropout and the nonparametric Conformal Prediction framework. Both methods are assessed using two convolutional neural network architectures; H-CNN VGG16 and GoogLeNet, trained on the Fashion-MNIST dataset. The empirical results show that although H-CNN VGG16 attains higher predictive accuracy, it tends to exhibit pronounced overconfidence, whereas GoogLeNet yields better-calibrated uncertainty estimates. Conformal Prediction additionally demonstrates consistent validity by producing statistically guaranteed prediction sets, highlighting its practical value in high-stakes decision-making contexts. Overall, the findings emphasize the importance of evaluating model performance beyond accuracy alone and contribute to the development of more reliable and trustworthy deep learning systems.


翻译:深度神经网络(DNNs)凭借其灵活性和强大的预测性能,已成为众多科学与实际应用中不可或缺的组成部分。然而,尽管其准确率很高,DNNs 常常表现出较差的校准性,经常为错误的预测分配过度自信的概率。这一局限性凸显了对能够提供可靠不确定性估计的集成机制日益增长的需求。本文比较了两种用于不确定性量化的主流方法:基于蒙特卡洛Dropout的贝叶斯近似方法,以及非参数的Conformal Prediction框架。两种方法均使用两种卷积神经网络架构进行评估:在Fashion-MNIST数据集上训练的H-CNN VGG16和GoogLeNet。实证结果表明,虽然H-CNN VGG16获得了更高的预测准确率,但它倾向于表现出明显的过度自信,而GoogLeNet则能产生校准更好的不确定性估计。此外,Conformal Prediction通过生成具有统计保证的预测集,证明了其具有一致的有效性,突显了其在高风险决策场景中的实用价值。总体而言,研究结果强调了超越单一准确率指标来评估模型性能的重要性,并为开发更可靠、更可信赖的深度学习系统做出了贡献。

0
下载
关闭预览

相关内容

《图神经网络不确定性》最新综述
专知会员服务
28+阅读 · 2024年3月13日
【KDD2023教程】不确定性量化在深度学习中的应用
专知会员服务
43+阅读 · 2023年8月19日
专知会员服务
92+阅读 · 2021年7月9日
【Nature通讯】深度神经网络模型中的个体差异
专知会员服务
14+阅读 · 2020年11月16日
【GNN】深度学习之上,图神经网络(GNN )崛起
产业智能官
16+阅读 · 2019年8月15日
「PPT」深度学习中的不确定性估计
专知
27+阅读 · 2019年7月20日
7个实用的深度学习技巧
机器学习算法与Python学习
16+阅读 · 2019年3月6日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
专栏 | 浅析图卷积神经网络
机器之心
28+阅读 · 2018年7月4日
【回顾】深度学习系列之二:卷积神经网络
AI研习社
20+阅读 · 2017年12月1日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
VIP会员
相关资讯
【GNN】深度学习之上,图神经网络(GNN )崛起
产业智能官
16+阅读 · 2019年8月15日
「PPT」深度学习中的不确定性估计
专知
27+阅读 · 2019年7月20日
7个实用的深度学习技巧
机器学习算法与Python学习
16+阅读 · 2019年3月6日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
专栏 | 浅析图卷积神经网络
机器之心
28+阅读 · 2018年7月4日
【回顾】深度学习系列之二:卷积神经网络
AI研习社
20+阅读 · 2017年12月1日
相关基金
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员