Neural networks are the cornerstone of modern machine learning, yet can be difficult to interpret, give overconfident predictions and are vulnerable to adversarial attacks. Bayesian neural networks (BNNs) provide some alleviation of these limitations, but have problems of their own. The key step of specifying prior distributions in BNNs is no trivial task, yet is often skipped out of convenience. In this work, we propose a new class of prior distributions for BNNs, the Dirichlet scale mixture (DSM) prior, that addresses current limitations in Bayesian neural networks through structured, sparsity-inducing shrinkage. Theoretically, we derive general dependence structures and shrinkage results for DSM priors and show how they manifest under the geometry induced by neural networks. In experiments on simulated and real world data we find that the DSM priors encourages sparse networks through implicit feature selection, show robustness under adversarial attacks and deliver competitive predictive performance with substantially fewer effective parameters. In particular, their advantages appear most pronounced in correlated, moderately small data regimes, and are more amenable to weight pruning. Moreover, by adopting heavy-tailed shrinkage mechanisms, our approach aligns with recent findings that such priors can mitigate the cold posterior effect, offering a principled alternative to the commonly used Gaussian priors.


翻译:神经网络是现代机器学习的基石,但其可解释性较差、易产生过度自信的预测且易受对抗性攻击。贝叶斯神经网络(BNNs)虽能缓解这些局限,但其自身也存在问题。为BNNs设定先验分布这一关键步骤并非易事,却常因便利性而被忽略。本研究提出一类新的BNNs先验分布——狄利克雷尺度混合(DSM)先验,该先验通过结构化、稀疏诱导的收缩机制应对当前贝叶斯神经网络的局限性。理论上,我们推导出DSM先验的通用依赖结构与收缩特性,并阐明其在神经网络几何结构下的表现形式。在模拟数据与真实数据的实验中,我们发现DSM先验能通过隐式特征选择促进网络稀疏性,在对抗攻击下保持鲁棒性,并以显著更少的有效参数实现具有竞争力的预测性能。特别地,其优势在相关性较强、规模适中的小数据场景中最为显著,且更适用于权重剪枝。此外,通过采用重尾收缩机制,我们的方法与近期研究结论——此类先验可缓解冷后验效应——相契合,为常用的高斯先验提供了理论依据更充分的替代方案。

0
下载
关闭预览

相关内容

【ETH博士论文】贝叶斯深度学习,241页pdf
专知会员服务
131+阅读 · 2022年1月16日
专知会员服务
33+阅读 · 2021年5月18日
【新书】贝叶斯网络进展与新应用,附全书下载
专知会员服务
122+阅读 · 2019年12月9日
【ETH博士论文】贝叶斯深度学习,241页pdf
专知
10+阅读 · 2022年1月16日
【新书册】贝叶斯神经网络,41页pdf
专知
29+阅读 · 2020年6月3日
【深度】让DL可解释?这一份66页贝叶斯深度学习教程告诉你
GAN生成式对抗网络
15+阅读 · 2018年8月11日
贝叶斯机器学习前沿进展
机器学习研究会
21+阅读 · 2018年1月21日
MNIST入门:贝叶斯方法
Python程序员
23+阅读 · 2017年7月3日
国家自然科学基金
16+阅读 · 2017年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Arxiv
0+阅读 · 3月1日
Arxiv
0+阅读 · 2月5日
VIP会员
最新内容
《新兴技术武器化及其对全球风险的影响》
专知会员服务
7+阅读 · 4月29日
《帕兰泰尔平台介绍:信息分析平台》
专知会员服务
18+阅读 · 4月29日
智能体化世界建模:基础、能力、规律及展望
专知会员服务
11+阅读 · 4月28日
相关VIP内容
【ETH博士论文】贝叶斯深度学习,241页pdf
专知会员服务
131+阅读 · 2022年1月16日
专知会员服务
33+阅读 · 2021年5月18日
【新书】贝叶斯网络进展与新应用,附全书下载
专知会员服务
122+阅读 · 2019年12月9日
相关资讯
相关基金
国家自然科学基金
16+阅读 · 2017年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员