High-resolution magnetic resonance imaging (MRI) is essential in clinical diagnosis. However, its long acquisition time remains a critical issue. Parallel imaging (PI) is a common approach to reduce acquisition time by periodically skipping specific k-space lines and reconstructing images from undersampled data. This study presents a generalized implicit neural representation (INR)-based framework for MRI PI reconstruction, addressing limitations commonly encountered in conventional methods, such as subject-specific or undersampling scale-specific requirements and long reconstruction time. The proposed method overcomes these limitations by leveraging prior knowledge of voxel-specific features and integrating a novel scale-embedded encoder module. This encoder generates scale-independent voxel-specific features from undersampled images, enabling robust reconstruction across various undersampling scales without requiring retraining for each specific scale or subject. The framework's INR model treats fully sampled MR images as a continuous function of spatial coordinates and prior voxel-specific features, efficiently reconstructing high-quality MR images from undersampled data. Extensive experiments on publicly available MRI datasets demonstrate the superior performance of the proposed method in reconstructing images at multiple acceleration factors (4x, 5x, and 6x), achieving higher evaluation metrics and visual fidelity compared to state-of-the-art methods. In terms of efficiency, this INR-based approach exhibits notable advantages, including reduced floating point operations and GPU usage, allowing for accelerated processing times while maintaining high reconstruction quality. The generalized design of the model significantly reduces computational resources and time consumption, making it more suitable for real-time clinical applications.


翻译:暂无翻译

0
下载
关闭预览

相关内容

FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
12+阅读 · 2023年9月21日
Knowledge Embedding Based Graph Convolutional Network
Arxiv
24+阅读 · 2021年4月23日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员