Current methods based on deep learning for self-supervised low-dose CT (LDCT) reconstruction, while reducing the dependence on paired data, face the problem of significantly decreased generalization when training with single-dose data and extending to other doses. To enable dose-extensive generalization using only single-dose projection data for training, this work proposes a novel method of Extendable GENeraLization self-supervised Diffusion (EGenDiff) for low-dose CT reconstruction. Specifically, a contextual subdata self-enhancing similarity strategy is designed to provide an initial prior for the subsequent progress. During training, the initial prior is used to combine knowledge distillation with a deep combination of latent diffusion models for optimizing image details. On the stage of inference, the pixel-wise self-correcting fusion technique is proposed for data fidelity enhancement, resulting in extensive generalization of higher and lower doses or even unseen doses. EGenDiff requires only LDCT projection data for training and testing. Comprehensive evaluation on benchmark datasets, clinical data, photon counting CT data, and across all three anatomical planes (transverse, coronal, and sagittal) demonstrates that EGenDiff enables extendable generalization multi-dose, yielding reconstructions that consistently outperform leading existing methods.


翻译:当前基于深度学习的自监督低剂量CT(LDCT)重建方法虽降低了对配对数据的依赖,但在使用单一剂量数据进行训练并扩展至其他剂量时,面临泛化能力显著下降的问题。为实现仅使用单剂量投影数据训练即可获得剂量扩展泛化能力,本研究提出一种用于低剂量CT重建的新型可扩展泛化自监督扩散方法(EGenDiff)。具体而言,设计了一种上下文子数据自增强相似性策略,为后续处理提供初始先验。在训练阶段,利用该初始先验将知识蒸馏与潜在扩散模型的深度结合相融合,以优化图像细节。在推理阶段,提出像素级自校正融合技术以增强数据保真度,从而实现对更高/更低剂量乃至未见剂量的广泛泛化。EGenDiff仅需LDCT投影数据即可完成训练与测试。在基准数据集、临床数据、光子计数CT数据及所有三个解剖平面(横断面、冠状面和矢状面)上的综合评估表明,EGenDiff能够实现可扩展的多剂量泛化,其重建结果在各项指标上持续优于现有主流方法。

0
下载
关闭预览

相关内容

用于强化学习的扩散模型:基础、分类与发展
专知会员服务
23+阅读 · 2025年10月15日
面向低光照图像增强的扩散模型
专知会员服务
15+阅读 · 2025年10月11日
深度学习中泛化的量化、理解与改进
专知会员服务
17+阅读 · 2025年9月13日
扩散模型量化综述
专知会员服务
18+阅读 · 2025年5月11日
低层视觉中的扩散模型:综述
专知会员服务
22+阅读 · 2024年6月18日
专知会员服务
26+阅读 · 2021年5月23日
【论文笔记】自注意力图池化
专知
82+阅读 · 2019年11月18日
用Attention玩转CV,一文总览自注意力语义分割进展
【CVPR2019】弱监督图像分类建模
深度学习大讲堂
38+阅读 · 2019年7月25日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
最新内容
2025年大语言模型进展报告
专知会员服务
1+阅读 · 今天13:30
多智能体协作机制
专知会员服务
1+阅读 · 今天13:26
非对称优势:美海军开发低成本反无人机技术
专知会员服务
4+阅读 · 今天4:39
《美战争部小企业创新研究(SBIR)计划》
专知会员服务
6+阅读 · 今天2:48
《军事模拟:将军事条令与目标融入AI智能体》
专知会员服务
9+阅读 · 今天2:43
【NTU博士论文】3D人体动作生成
专知会员服务
7+阅读 · 4月24日
以色列军事技术对美国军力发展的持续性赋能
专知会员服务
8+阅读 · 4月24日
《深度强化学习在兵棋推演中的应用》40页报告
专知会员服务
14+阅读 · 4月24日
《多域作战面临复杂现实》
专知会员服务
10+阅读 · 4月24日
《印度的多域作战:条令与能力发展》报告
专知会员服务
5+阅读 · 4月24日
相关VIP内容
用于强化学习的扩散模型:基础、分类与发展
专知会员服务
23+阅读 · 2025年10月15日
面向低光照图像增强的扩散模型
专知会员服务
15+阅读 · 2025年10月11日
深度学习中泛化的量化、理解与改进
专知会员服务
17+阅读 · 2025年9月13日
扩散模型量化综述
专知会员服务
18+阅读 · 2025年5月11日
低层视觉中的扩散模型:综述
专知会员服务
22+阅读 · 2024年6月18日
专知会员服务
26+阅读 · 2021年5月23日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员