Amortized Bayesian inference (ABI) with neural networks can solve probabilistic inverse problems orders of magnitude faster than classical methods. However, ABI is not yet sufficiently robust for widespread and safe application. When performing inference on observations outside the scope of the simulated training data, posterior approximations are likely to become highly biased, which cannot be corrected by additional simulations due to the bad pre-asymptotic behavior of current neural posterior estimators. In this paper, we propose a semi-supervised approach that enables training not only on labeled simulated data generated from the model, but also on \textit{unlabeled} data originating from any source, including real data. To achieve this, we leverage Bayesian self-consistency properties that can be transformed into strictly proper losses that do not require knowledge of ground-truth parameters. We test our approach on several real-world case studies, including applications to high-dimensional time-series and image data. Our results show that semi-supervised learning with unlabeled data drastically improves the robustness of ABI in the out-of-simulation regime. Notably, inference remains accurate even when evaluated on observations far away from the labeled and unlabeled data seen during training.


翻译:基于神经网络的摊销贝叶斯推断能以比传统方法快数个数量级的速度解决概率逆问题。然而,ABI 的鲁棒性尚不足以支持其广泛且安全的应用。当对超出模拟训练数据范围的观测进行推断时,后验近似很可能产生高度偏差,而由于当前神经后验估计器的不良渐近前行为,这种偏差无法通过额外的模拟来校正。本文提出一种半监督方法,该方法不仅支持在模型生成的带标签模拟数据上进行训练,也支持在源自任意来源(包括真实数据)的 \textit{无标签} 数据上进行训练。为实现此目标,我们利用贝叶斯自洽性特性,这些特性可转化为严格适当的损失函数,且无需真实参数的知识。我们在多个真实世界案例研究中测试了所提方法,包括对高维时间序列和图像数据的应用。结果表明,利用无标签数据的半监督学习极大地提升了 ABI 在模拟外场景下的鲁棒性。值得注意的是,即使在评估远离训练期间所见带标签及无标签数据的观测时,推断仍能保持准确性。

0
下载
关闭预览

相关内容

专知会员服务
36+阅读 · 2021年8月17日
【Nature】贝叶斯统计与建模综述,26页pdf
专知会员服务
77+阅读 · 2021年1月21日
【干货书】贝叶斯推断随机过程,449页pdf
专知会员服务
155+阅读 · 2020年8月27日
【干货书】贝叶斯推断随机过程,449页pdf
专知
30+阅读 · 2020年8月27日
【新书册】贝叶斯神经网络,41页pdf
专知
29+阅读 · 2020年6月3日
面试题:简单说说贝叶斯定理
七月在线实验室
12+阅读 · 2019年6月12日
贝叶斯机器学习前沿进展
机器学习研究会
21+阅读 · 2018年1月21日
国家自然科学基金
16+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Arxiv
0+阅读 · 2月16日
VIP会员
相关基金
国家自然科学基金
16+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员