We propose a new model-order reduction framework to poorly reducible problems arising from parametric partial differential equations with geometric variability. In such problems, the solution manifold exhibits a slowly decaying Kolmogorov $N$-width, so that standard projection-based model order reduction techniques based on linear subspace approximations become ineffective. To overcome this difficulty, we introduce an optimal morphing strategy: For each solution sample, we compute a bijective morphing from a reference domain to the sample domain such that, when all the solution fields are pulled back to the reference domain, their variability is reduced. We formulate a global optimization problem on the morphings that maximizes the energy captured by the first $r$ modes of the mapped fields obtained from Proper Orthogonal Decomposition, thus maximizing the reducibility of the dataset. Finally, using a non-intrusive Gaussian Process regression on the reduced coordinates, we build a fast surrogate model that can accurately predict new solutions, highlighting the practical benefits of the proposed approach for many-query applications. The framework is general, independent of the underlying partial differential equation, and applies to scenarios with either parameterized or non-parameterized geometries.


翻译:本文提出一种新的模型降阶框架,用于处理具有几何可变性的参数偏微分方程所引发的难约简问题。此类问题的解流形表现出缓慢衰减的Kolmogorov $N$-宽度,使得基于线性子空间近似的标准投影型模型降阶方法失效。为克服这一困难,我们引入最优形变策略:针对每个解样本,计算从参考域到样本域的双射形变,使得所有解场被拉回至参考域时,其变异性显著降低。我们构建了关于形变的全局优化问题,以最大化通过本征正交分解所得映射场前$r$个模态捕获的能量,从而最大化数据集的约简潜力。最后,通过对降维坐标进行非侵入式高斯过程回归,构建能够精确预测新解的快速代理模型,突显了该方法在多查询应用中的实用价值。该框架具有通用性,不依赖于特定偏微分方程形式,适用于参数化或非参数化几何场景。

0
下载
关闭预览

相关内容

【ACL2020】多模态信息抽取,365页ppt
专知会员服务
151+阅读 · 2020年7月6日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
概率图模型体系:HMM、MEMM、CRF
机器学习研究会
30+阅读 · 2018年2月10日
基于LDA的主题模型实践(三)
机器学习深度学习实战原创交流
23+阅读 · 2015年10月12日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
69+阅读 · 2022年9月7日
Arxiv
18+阅读 · 2021年3月16日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
A survey on deep hashing for image retrieval
Arxiv
15+阅读 · 2020年6月10日
VIP会员
相关资讯
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
概率图模型体系:HMM、MEMM、CRF
机器学习研究会
30+阅读 · 2018年2月10日
基于LDA的主题模型实践(三)
机器学习深度学习实战原创交流
23+阅读 · 2015年10月12日
相关论文
Arxiv
69+阅读 · 2022年9月7日
Arxiv
18+阅读 · 2021年3月16日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
A survey on deep hashing for image retrieval
Arxiv
15+阅读 · 2020年6月10日
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员