Considered herein is a modified Newton method for the numerical solution of nonlinear equations where the Jacobian is approximated using a complex-step derivative approximation. We show that this method converges for sufficiently small complex-step values, which need not be infinitesimal. Notably, when the individual derivatives in the Jacobian matrix are approximated using the complex-step method, the convergence is linear and becomes quadratic as the complex-step approaches zero. However, when the Jacobian matrix is approximated by the nonlinear complex-step derivative approximation, the convergence rate remains quadratic for any appropriately small complex-step value, not just in the limit as it approaches zero. This claim is supported by numerical experiments. Additionally, we demonstrate the method's robust applicability in solving nonlinear systems arising from differential equations, where it is implemented as a Jacobian-free Newton-Krylov method.


翻译:本文研究了一种改进的牛顿法,用于数值求解非线性方程组,其中雅可比矩阵通过复步导数逼近进行近似。我们证明该方法在复步长充分小时收敛,且该步长无需无穷小。特别值得注意的是,当雅可比矩阵中的各阶导数采用复步法近似时,收敛速度为线性;而当复步长趋近于零时,收敛速度提升为二次。然而,若采用非线性复步导数逼近来近似雅可比矩阵,则对于任意适当小的复步长(不仅限于趋近于零的极限情况),收敛速率始终保持二次。数值实验支持了这一论断。此外,我们通过将本方法实现为无雅可比矩阵的牛顿-克雷洛夫方法,展示了其在求解微分方程导出的非线性方程组中具有鲁棒适用性。

0
下载
关闭预览

相关内容

专知会员服务
132+阅读 · 2021年6月18日
【ACL2020】多模态信息抽取,365页ppt
专知会员服务
151+阅读 · 2020年7月6日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
知识图谱最新研究综述
深度学习自然语言处理
45+阅读 · 2020年6月14日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Layer Normalization原理及其TensorFlow实现
深度学习每日摘要
32+阅读 · 2017年6月17日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2024年11月7日
Arxiv
0+阅读 · 2024年11月7日
VIP会员
相关资讯
知识图谱最新研究综述
深度学习自然语言处理
45+阅读 · 2020年6月14日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Layer Normalization原理及其TensorFlow实现
深度学习每日摘要
32+阅读 · 2017年6月17日
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员