Physics-informed neural networks have been widely applied to solid mechanics problems. However, balancing the governing partial differential equations and boundary conditions remains challenging, particularly in fracture mechanics, where accurate predictions strongly depend on refined sampling near crack tips. To overcome these limitations, a Kolosov-Muskhelishvili informed neural network with Williams enrichment is developed in this study. Benefiting from the holomorphic representation, the governing equations are satisfied by construction, and only boundary points are required for training. Across a series of benchmark problems, the Kolosov-Muskhelishvili informed neural network shows excellent agreement with analytical and finite element method references, achieving average relative errors below 1\% and $R^2$ above 0.99 for both mode I and mode II loadings. Furthermore, three crack propagation criteria (maximum tangential stress, maximum energy release rate, and principle of local symmetry) are integrated into the framework using a transfer learning strategy to predict crack propagation directions. The predicted paths are nearly identical across all criteria, and the transfer learning strategy reduces the required training time by more than 70\%. Overall, the developed framework provides a unified, mesh-free, and physically consistent approach for accurate and efficient crack propagation analysis.


翻译:物理信息神经网络已被广泛应用于固体力学问题。然而,平衡控制偏微分方程与边界条件仍然具有挑战性,特别是在断裂力学中,其预测精度高度依赖于裂纹尖端附近精细的采样。为克服这些限制,本研究开发了一种结合Williams级数增强的Kolosov-Muskhelishvili信息神经网络。得益于全纯函数表示,控制方程在构造时即得到满足,训练仅需边界点数据。在一系列基准问题中,该神经网络与解析解及有限元法参考结果表现出极好的一致性,在I型和II型载荷下平均相对误差均低于1%、$R^2$均高于0.99。进一步地,通过迁移学习策略将三种裂纹扩展准则(最大切向应力准则、最大能量释放率准则与局部对称原理)集成到框架中,以预测裂纹扩展方向。所有准则预测的扩展路径几乎完全一致,且迁移学习策略将所需训练时间减少了70%以上。总体而言,所开发的框架为精确高效的裂纹扩展分析提供了一种统一、无网格且物理一致的方法。

0
下载
关闭预览

相关内容

从PINNs到PIKANs:物理信息机器学习的最新进展
专知会员服务
43+阅读 · 2024年10月27日
《科学机器学习中神经网络结构的比较》最新65页报告
专知会员服务
28+阅读 · 2024年3月5日
【ETHZ博士论文】深度学习在科学计算中的应用,181页pdf
专知会员服务
57+阅读 · 2023年12月15日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
35+阅读 · 2020年4月15日
论文浅尝 | GMNN: Graph Markov Neural Networks
开放知识图谱
20+阅读 · 2020年2月14日
神经网络常微分方程 (Neural ODEs) 解析
AI科技评论
42+阅读 · 2019年8月9日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
2019年新书推荐-《神经网络与深度学习》-Michael Nielsen
深度学习与NLP
14+阅读 · 2019年2月21日
基于Keras进行迁移学习
论智
12+阅读 · 2018年5月6日
迁移学习在深度学习中的应用
专知
24+阅读 · 2017年12月24日
基于信息理论的机器学习
专知
22+阅读 · 2017年11月23日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
从PINNs到PIKANs:物理信息机器学习的最新进展
专知会员服务
43+阅读 · 2024年10月27日
《科学机器学习中神经网络结构的比较》最新65页报告
专知会员服务
28+阅读 · 2024年3月5日
【ETHZ博士论文】深度学习在科学计算中的应用,181页pdf
专知会员服务
57+阅读 · 2023年12月15日
神经网络的拓扑结构,TOPOLOGY OF DEEP NEURAL NETWORKS
专知会员服务
35+阅读 · 2020年4月15日
相关资讯
论文浅尝 | GMNN: Graph Markov Neural Networks
开放知识图谱
20+阅读 · 2020年2月14日
神经网络常微分方程 (Neural ODEs) 解析
AI科技评论
42+阅读 · 2019年8月9日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
2019年新书推荐-《神经网络与深度学习》-Michael Nielsen
深度学习与NLP
14+阅读 · 2019年2月21日
基于Keras进行迁移学习
论智
12+阅读 · 2018年5月6日
迁移学习在深度学习中的应用
专知
24+阅读 · 2017年12月24日
基于信息理论的机器学习
专知
22+阅读 · 2017年11月23日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员