Explainable artificial intelligence (XAI) methods have been proposed to interpret model decisions in classification and, more recently, in semantic segmentation. However, instance-level XAI for semantic segmentation, namely explanations focused on a single object among multiple instances of the same class, remains largely unexplored. Such explanations are particularly important in multi-lesional diseases to understand what drives the detection and contouring of a specific lesion. We propose instance-level explanation maps for semantic segmentation by extending SmoothGrad and Grad-CAM++ to obtain quantitative instance saliency. These methods were applied to the segmentation of white matter lesions (WMLs), a magnetic resonance imaging biomarker in multiple sclerosis. We used 4023 FLAIR and MPRAGE MRI scans from 687 patients collected at the University Hospital of Basel, Switzerland, with WML masks annotated by four expert clinicians. Three deep learning architectures, a 3D U-Net, nnU-Net, and Swin UNETR, were trained and evaluated, achieving normalized Dice scores of 0.71, 0.78, and 0.80, respectively. Instance saliency maps showed that the models relied primarily on FLAIR rather than MPRAGE for WML segmentation, with positive saliency inside lesions and negative saliency in their immediate neighborhood, consistent with clinical practice. Peak saliency values differed significantly across correct and incorrect predictions, suggesting that quantitative instance saliency may help identify segmentation errors. In conclusion, we introduce two architecture-agnostic XAI methods that provide quantitative instance-level explanations for semantic segmentation and support clinically meaningful interpretation of model decisions.


翻译:可解释人工智能(XAI)方法已被提出用于解释分类模型决策,近年来更扩展至语义分割领域。然而,针对语义分割的实例级XAI——即专注于同类多个实例中单个对象的解释方法——仍鲜有研究。此类解释对于多病灶疾病尤为重要,可帮助理解特定病灶检测与轮廓勾画的决策依据。本研究通过扩展SmoothGrad和Grad-CAM++方法,提出生成语义分割的实例级解释图谱,以获取定量化的实例显著性。这些方法应用于白质病灶(WML)分割任务,该病灶是多发性硬化症的磁共振成像生物标志物。我们使用来自瑞士巴塞尔大学医院687名患者的4023次FLAIR与MPRAGE磁共振扫描数据,其WML掩模由四位临床专家标注。通过训练并评估三种深度学习架构(3D U-Net、nnU-Net及Swin UNETR),分别获得0.71、0.78和0.80的归一化Dice分数。实例显著性图谱显示,模型主要依赖FLAIR序列而非MPRAGE进行WML分割,病灶内部呈现正显著性而邻近区域呈现负显著性,这与临床实践一致。正确与错误预测间的峰值显著性存在显著差异,表明定量实例显著性可能有助于识别分割错误。本研究提出的两种架构无关XAI方法,可为语义分割提供定量化的实例级解释,并支持对模型决策进行具有临床意义的解读。

0
下载
关闭预览

相关内容

可解释强化学习综述:目标、方法与需求
专知会员服务
31+阅读 · 2025年7月19日
可解释的人工智能在生物医学图像分析中的应用综述
专知会员服务
14+阅读 · 2025年7月11日
最新《医学图像深度语义分割》综述论文
专知会员服务
97+阅读 · 2020年6月7日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
132+阅读 · 2020年5月14日
「因果推理」概述论文,13页pdf
专知
16+阅读 · 2021年3月20日
本周精选共读论文《计算机视觉图像分割》六篇
人工智能前沿讲习班
10+阅读 · 2019年4月1日
DL | 语义分割综述
机器学习算法与Python学习
58+阅读 · 2019年3月13日
见微知著:语义分割中的弱监督学习
深度学习大讲堂
11+阅读 · 2017年12月6日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月27日
VIP会员
相关VIP内容
可解释强化学习综述:目标、方法与需求
专知会员服务
31+阅读 · 2025年7月19日
可解释的人工智能在生物医学图像分析中的应用综述
专知会员服务
14+阅读 · 2025年7月11日
最新《医学图像深度语义分割》综述论文
专知会员服务
97+阅读 · 2020年6月7日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
132+阅读 · 2020年5月14日
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员