Large data-driven physics models like DeepMind's weather model GraphCast have empirically succeeded in parameterizing time operators for complex dynamical systems with an accuracy reaching or in some cases exceeding that of traditional physics-based solvers. Unfortunately, how these data-driven models perform computations is largely unknown and whether their internal representations are interpretable or physically consistent is an open question. Here, we adapt tools from interpretability research in Large Language Models to analyze intermediate computational layers in GraphCast, leveraging sparse autoencoders to discover interpretable features in the neuron space of the model. We uncover distinct features on a wide range of length and time scales that correspond to tropical cyclones, atmospheric rivers, diurnal and seasonal behavior, large-scale precipitation patterns, specific geographical coding, and sea-ice extent, among others. We further demonstrate how the precise abstraction of these features can be probed via interventions on the prediction steps of the model. As a case study, we sparsely modify a feature corresponding to tropical cyclones in GraphCast and observe interpretable and physically consistent modifications to evolving hurricanes. Such methods offer a window into the black-box behavior of data-driven physics models and are a step towards realizing their potential as trustworthy predictors and scientifically valuable tools for discovery.


翻译:诸如DeepMind天气模型GraphCast等大型数据驱动的物理模型,已在经验上成功实现了对复杂动力系统时间算子的参数化,其精度达到甚至在某些情况下超越了传统基于物理的求解器。然而,这些数据驱动的模型如何进行计算在很大程度上仍是未知的,其内部表征是否可解释或具有物理一致性也是一个悬而未决的问题。在此,我们借鉴大型语言模型可解释性研究中的工具,通过利用稀疏自编码器在模型的神经元空间中发现可解释特征,来分析GraphCast中的中间计算层。我们发现了跨越广泛时空尺度的多种特征,分别对应于热带气旋、大气河流、昼夜与季节行为、大尺度降水模式、特定的地理编码以及海冰范围等。我们进一步展示了如何通过对模型预测步骤进行干预,来探究这些特征的精确抽象。作为案例研究,我们稀疏地修改了GraphCast中一个对应于热带气旋的特征,并观察到对发展中的飓风产生的可解释且物理一致的修改。此类方法为窥探数据驱动物理模型的黑箱行为提供了一扇窗口,是朝着实现其作为可信赖的预测工具及具有科学价值的发现工具的潜力迈出的一步。

0
下载
关闭预览

相关内容

通过采集数据(这里的数据必须满足大、全、细、时),将数据进行组织形成信息流,在做决策或者产品、运营等优化时,根据不同需求对信息流进行提炼总结,从而在数据的支撑下或者指导下进行科学的行动叫做数据驱动。
深度学习与基础模型在天气预测中的应用:综述
专知会员服务
24+阅读 · 2025年1月15日
动态数据驱动仿真综述
专知会员服务
52+阅读 · 2024年5月17日
大模型时代的自动图表理解综述
专知会员服务
70+阅读 · 2024年3月19日
可解释的机器学习模型和架构
专知会员服务
92+阅读 · 2023年9月17日
深度预测学习:模型与应用
专知会员服务
49+阅读 · 2022年12月5日
机器学习的可解释性
专知会员服务
179+阅读 · 2020年8月27日
深度学习模型可解释性的研究进展
专知
26+阅读 · 2020年8月1日
从Seq2seq到Attention模型到Self Attention(一)
量化投资与机器学习
76+阅读 · 2018年10月8日
用模型不确定性理解模型
论智
11+阅读 · 2018年9月5日
【学界】机器学习模型的“可解释性”到底有多重要?
GAN生成式对抗网络
12+阅读 · 2018年3月3日
展望:模型驱动的深度学习
人工智能学家
12+阅读 · 2018年1月23日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关VIP内容
深度学习与基础模型在天气预测中的应用:综述
专知会员服务
24+阅读 · 2025年1月15日
动态数据驱动仿真综述
专知会员服务
52+阅读 · 2024年5月17日
大模型时代的自动图表理解综述
专知会员服务
70+阅读 · 2024年3月19日
可解释的机器学习模型和架构
专知会员服务
92+阅读 · 2023年9月17日
深度预测学习:模型与应用
专知会员服务
49+阅读 · 2022年12月5日
机器学习的可解释性
专知会员服务
179+阅读 · 2020年8月27日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员