This work investigates the convergence of a domain decomposition method for the Poisson-Boltzmann model that can be formulated as an interior-exterior transmission problem. To study its convergence, we introduce an interior-exterior constant providing an upper bound of the $L^2$ norm of any harmonic function in the interior, and establish a spectral equivalence for related Dirichlet-to-Neumann operators to estimate the spectrum of interior-exterior iteration operator. This analysis is nontrivial due to the unboundedness of the exterior subdomain, which distinguishes it from the classical analysis of the Schwarz alternating method with nonoverlapping bounded subdomains. It is proved that for the linear Poisson-Boltzmann solvent model in reality, the convergence of interior-exterior iteration is ensured when the relaxation parameter lies between 0 and 2. This convergence result interprets the good performance of ddLPB method developed in [SIAM Journal on Scientific Computing, 41 (2019), pp. B320-B350] where the relaxation parameter is set to 1. Numerical simulations are conducted to verify our convergence analysis and to investigate the optimal relaxation parameter for the interior-exterior iteration.


翻译:本文研究针对泊松-玻尔兹曼模型的区域分解法的收敛性,该模型可表述为内-外传输问题。为分析其收敛性,我们引入了一个内-外常数,该常数可为任意内部调和函数的$L^2$范数提供上界,并通过建立相关狄利克雷-诺伊曼算子的谱等价性来估计内-外迭代算子的谱。由于外部子域的无界性,该分析与经典非重叠有界子域的施瓦茨交替法分析有本质区别,使得分析具有非平凡性。研究证明,在实际线性泊松-玻尔兹曼溶剂模型中,当松弛参数取值在0到2之间时,内-外迭代的收敛性得以保证。该收敛结果解释了文献[SIAM Journal on Scientific Computing, 41 (2019), pp. B320-B350]中发展的ddLPB方法(其松弛参数设为1)表现良好的内在机理。数值模拟验证了收敛性分析结论,并探究了内-外迭代的最优松弛参数。

0
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
82+阅读 · 2020年7月26日
【ACL2020】多模态信息抽取,365页ppt
专知会员服务
151+阅读 · 2020年7月6日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
164+阅读 · 2019年10月12日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
Layer Normalization原理及其TensorFlow实现
深度学习每日摘要
32+阅读 · 2017年6月17日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Arxiv
11+阅读 · 2023年8月28日
Arxiv
49+阅读 · 2021年9月11日
Arxiv
19+阅读 · 2021年4月8日
Arxiv
13+阅读 · 2021年3月29日
Arxiv
17+阅读 · 2018年4月2日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
Layer Normalization原理及其TensorFlow实现
深度学习每日摘要
32+阅读 · 2017年6月17日
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员