如今,神经网络已经变得无处不在,并日益影响医疗、自动驾驶、金融和法律等高风险领域。这引出了一个关键问题:如何提升此类模型的可靠性,而这涵盖了多个方面,包括分布内(in-distribution, ID)性能、领域偏移下的泛化能力,以及校准性(calibration)。
为此,本文从两个互补的视角研究神经网络的可靠性: 第一,我们尝试将物理结构嵌入神经网络之中,从而对其假设空间进行正则化,使其更倾向于符合已知物理规律的解。这种方式能够稳定模型在分布内(尤其是在训练数据稀缺或存在缺失时)的预测表现,同时提升其在分布外(out-of-distribution, OOD)场景下的泛化能力,从而促进更可靠的行为。
第二,在缺乏可处理的物理模型时,我们通过(近似)贝叶斯推断来实现可靠建模。这种方法不仅能够降低预测方差,从而提升模型鲁棒性,更重要的是,它有潜力提供经过良好校准的不确定性估计,而这通常被认为是可靠机器学习的关键要求之一。 在整篇论文中,我们通过三篇科学论文对这两个视角进行了系统探索,并逐步从基于物理规律的模型扩展到具备不确定性感知的大规模应用。
首先,我们提出了神经热场(Neural Heat Fields, NHFs),这是一种内置物理观测模型的隐式神经架构。我们在任意尺度图像超分辨率这一天然具有多尺度特性的任务上验证了该表示的有效性。实验表明,该方法在分布内和分布外性能上均推进了当前最优水平(state-of-the-art),同时具备更高效率,并提供了理论上的抗混叠(anti-aliasing)保证。
接着,我们将 NHFs 扩展为视频傅里叶场(Video Fourier Fields, VFFs),构建了一种基于物理规律的统一表示,用于高分辨率视频在时空连续域上的建模。基于 VFFs 的端到端模型在连续视频超分辨率任务上显著推进了当前最优性能,无论是在分布内还是分布外场景下,同时同样提供了理论上的多尺度保证。
最后,我们研究了一个大规模遥感任务,结果表明,一种原则性的近似贝叶斯推断方法不仅能够提升预测性能,还能够提供良好校准的预测不确定性估计。
总而言之,本文从两个互补的角度——基于物理的归纳结构与贝叶斯不确定性建模——探讨了深度机器学习中的可靠性问题。我们希望为这一日益重要的研究领域做出贡献,因为它正在影响我们生活的越来越多方面,并推动可信人工智能(Trustworthy AI)的发展。