Deep neural networks (DNNs) often produce overconfident out-of-distribution predictions, motivating Bayesian uncertainty quantification. The Linearized Laplace Approximation (LLA) achieves this by linearizing the DNN and applying Laplace inference to the resulting model. Importantly, the linear model is also used for prediction. We argue this linearization in the posterior may degrade fidelity to the true Laplace approximation. To alleviate this problem, without increasing significantly the computational cost, we propose the Quadratic Laplace Approximation (QLA). QLA approximates each second order factor in the approximate Laplace log-posterior using a rank-one factor obtained via efficient power iterations. QLA is expected to yield a posterior precision closer to that of the full Laplace without forming the full Hessian, which is typically intractable. For prediction, QLA also uses the linearized model. Empirically, QLA yields modest yet consistent uncertainty estimation improvements over LLA on five regression datasets.


翻译:深度神经网络(DNNs)常对分布外预测产生过度自信,这推动了贝叶斯不确定性量化的发展。线性化拉普拉斯近似(LLA)通过将DNN线性化并对所得模型应用拉普拉斯推断来实现这一目标。重要的是,线性模型也用于预测。我们认为,后验中的这种线性化可能会降低对真实拉普拉斯近似的保真度。为了缓解此问题,同时不显著增加计算成本,我们提出了二次拉普拉斯近似(QLA)。QLA通过高效的幂迭代获得秩一因子,用以近似近似拉普拉斯对数后验中的每个二阶因子。QLA有望在不形成通常难以处理的完整Hessian矩阵的情况下,产生更接近完整拉普拉斯近似的后验精度。对于预测,QLA同样使用线性化模型。实证表明,在五个回归数据集上,QLA相比LLA在不确定性估计方面取得了适度但一致的改进。

0
下载
关闭预览

相关内容

【KDD2023教程】不确定性量化在深度学习中的应用
专知会员服务
43+阅读 · 2023年8月19日
专知会员服务
19+阅读 · 2021年4月3日
最新《可解释深度学习XDL》2020研究进展综述大全,54页pdf
一文读懂线性回归、岭回归和Lasso回归
CSDN
34+阅读 · 2019年10月13日
图上的归纳表示学习
科技创新与创业
23+阅读 · 2017年11月9日
各种相似性度量及Python实现
机器学习算法与Python学习
11+阅读 · 2017年7月6日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员