Generative artificial intelligence (AI) excels at producing complex data structures (text, images, videos) by learning patterns from training examples. Across scientific disciplines, researchers are now applying generative models to "inverse problems" to directly predict hidden parameters from observed data along with measures of uncertainty. While these predictive or posterior-based methods can handle intractable likelihoods and large-scale studies, they can also produce biased or overconfident conclusions even without model misspecifications. We present a solution with Frequentist-Bayes (FreB), a mathematically rigorous protocol that reshapes AI-generated posterior probability distributions into (locally valid) confidence regions that consistently include true parameters with the expected probability, while achieving minimum size when training and target data align. We demonstrate FreB's effectiveness by tackling diverse case studies in the physical sciences: identifying unknown sources under dataset shift, reconciling competing theoretical models, and mitigating selection bias and systematics in observational studies. By providing validity guarantees with interpretable diagnostics, FreB enables trustworthy scientific inference across fields where direct likelihood evaluation remains impossible or prohibitively expensive.


翻译:生成式人工智能(AI)通过从训练样本中学习模式,擅长生成复杂的数据结构(文本、图像、视频)。在各个科学领域,研究人员正将生成模型应用于“逆问题”,以直接从观测数据中预测隐藏参数并量化不确定性。尽管这些基于预测或后验分布的方法能够处理难以处理的似然函数和大规模研究,但即使在模型设定无误的情况下,它们也可能产生有偏或过度自信的结论。我们提出了一种解决方案——频率主义-贝叶斯(FreB)方法,这是一种数学上严谨的协议,可将AI生成的后验概率分布重塑为(局部有效的)置信区域,这些区域能以预期概率一致地包含真实参数,并在训练数据与目标数据一致时达到最小尺寸。我们通过物理科学中的多个案例研究证明了FreB的有效性:在数据集偏移下识别未知源、调和相互竞争的理论模型,以及在观测研究中减轻选择偏差和系统误差。通过提供具有可解释诊断的有效性保证,FreB能够在直接似然评估仍不可能或成本过高的领域实现可靠的科学推断。

0
下载
关闭预览

相关内容

【CMU博士论文】基于机器学习的可信科学推理
专知会员服务
16+阅读 · 2025年5月26日
【新书】生成式人工智能:概念与应用
专知会员服务
46+阅读 · 2025年3月18日
生成式建模:综述
专知会员服务
33+阅读 · 2025年1月13日
《利用合成数据生成加强军事决策支持》
专知会员服务
42+阅读 · 2024年12月30日
《生成式人工智能模型:机遇与风险》
专知会员服务
77+阅读 · 2024年4月22日
英国杜伦大学「深度生成建模」大综述论文,21页pdf
专知会员服务
49+阅读 · 2021年3月16日
深度学习模型可解释性的研究进展
专知
26+阅读 · 2020年8月1日
斯坦福CS236-深度生成模型2019-全套课程资料分享
深度学习与NLP
20+阅读 · 2019年8月20日
视频生成的前沿论文,看我们推荐的7篇就够了
人工智能前沿讲习班
34+阅读 · 2018年12月30日
深度学习时代的图模型,清华发文综述图网络
GAN生成式对抗网络
13+阅读 · 2018年12月23日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Arxiv
0+阅读 · 2月16日
Arxiv
0+阅读 · 1月16日
VIP会员
相关VIP内容
【CMU博士论文】基于机器学习的可信科学推理
专知会员服务
16+阅读 · 2025年5月26日
【新书】生成式人工智能:概念与应用
专知会员服务
46+阅读 · 2025年3月18日
生成式建模:综述
专知会员服务
33+阅读 · 2025年1月13日
《利用合成数据生成加强军事决策支持》
专知会员服务
42+阅读 · 2024年12月30日
《生成式人工智能模型:机遇与风险》
专知会员服务
77+阅读 · 2024年4月22日
英国杜伦大学「深度生成建模」大综述论文,21页pdf
专知会员服务
49+阅读 · 2021年3月16日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员