Deep learning has revolutionized medical image registration by achieving unprecedented speeds, yet its clinical application is hindered by a limited ability to generalize beyond the training domain, a critical weakness given the typically small scale of medical datasets. In this paper, we introduce FMIR, a foundation model-based registration framework that overcomes this limitation.Combining a foundation model-based feature encoder for extracting anatomical structures with a general registration head, and trained with a channel regularization strategy on just a single dataset, FMIR achieves state-of-the-art(SOTA) in-domain performance while maintaining robust registration on out-of-domain images.Our approach demonstrates a viable path toward building generalizable medical imaging foundation models with limited resources. The code is available at https://github.com/Monday0328/FMIR.git.


翻译:深度学习通过实现前所未有的速度彻底改变了医学图像配准领域,但其临床应用受到泛化能力有限的制约——这一关键弱点在医学数据集通常规模较小的情况下尤为突出。本文提出FMIR,一种基于基础模型的配准框架,以克服这一局限。该框架结合了用于提取解剖结构的基于基础模型的特征编码器与通用配准头,并仅通过单数据集上的通道正则化策略进行训练,在保持域外图像鲁棒配准能力的同时,实现了领域内最先进的性能。我们的方法展示了在有限资源下构建可泛化医学影像基础模型的可行路径。代码发布于https://github.com/Monday0328/FMIR.git。

0
下载
关闭预览

相关内容

【CMU博士论文】利用信息论工具进行基础模型分析
专知会员服务
19+阅读 · 2025年8月31日
《深度学习医学图像配准》综述进展
专知会员服务
49+阅读 · 2022年5月9日
【Google AI】鲁棒图神经网络,Robust Graph Neural Networks
专知会员服务
38+阅读 · 2022年3月9日
专知会员服务
31+阅读 · 2021年9月23日
专知会员服务
30+阅读 · 2021年6月4日
DeepReg:开源深度学习医学图像配准工具包
专知
34+阅读 · 2020年8月29日
综述 | 图像配准 Image registration
计算机视觉life
19+阅读 · 2019年9月12日
Github热门图深度学习(GraphDL)源码与框架
新智元
21+阅读 · 2019年3月19日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员