We develop a refined Frozen Gaussian approximation (FGA) for the fractional Schr\"odinger equation in the semi-classical regime, where the solution exhibits rapid oscillations as the scaled Planck constant $\varepsilon$ becomes small. Our approach utilizes an integral representation based on asymptotic analysis, offering a highly efficient computational framework for high-frequency wave function evolution. Crucially, we introduce the momentum space representation of the FGA and a regularization parameter $\delta$ to address singularities in the higher-order derivatives of the Hamiltonian flow coefficients, which are typically assumed to be second-order differentiable or smooth in conventional analysis. We rigorously prove convergence of the method to the true solution and provide numerical experiments that demonstrate its precision and robust convergence behavior.


翻译:本文针对半经典区域内的分数阶薛定谔方程发展了一种改进的凝固高斯近似方法。当约化普朗克常数$\varepsilon$趋于零时,方程解呈现快速振荡特性。我们基于渐近分析构建了积分表示形式,为高频波函数演化提供了一个高效的计算框架。关键创新点在于引入了凝固高斯近似的动量空间表示以及正则化参数$\delta$,用以处理哈密顿流系数高阶导数中的奇异性问题——这类系数在传统分析中通常仅假设具有二阶可微性或光滑性。我们严格证明了该方法对真实解的收敛性,并通过数值实验验证了其精确度与鲁棒的收敛特性。

0
下载
关闭预览

相关内容

FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
32+阅读 · 2019年10月16日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Layer Normalization原理及其TensorFlow实现
深度学习每日摘要
32+阅读 · 2017年6月17日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
69+阅读 · 2022年9月7日
Arxiv
16+阅读 · 2022年5月17日
Arxiv
18+阅读 · 2021年3月16日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
VIP会员
相关VIP内容
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
32+阅读 · 2019年10月16日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
相关资讯
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Layer Normalization原理及其TensorFlow实现
深度学习每日摘要
32+阅读 · 2017年6月17日
相关论文
Arxiv
69+阅读 · 2022年9月7日
Arxiv
16+阅读 · 2022年5月17日
Arxiv
18+阅读 · 2021年3月16日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员