Model interpretability is crucial for establishing AI safety and clinician trust in medical applications for example, in survival modelling with competing risks. Recent deep learning models have attained very good predictive performance but their limited transparency, being black-box models, hinders their integration into clinical practice. To address this gap, we propose an intrinsically interpretable survival model called CRISPNAM-FG. Leveraging the structure of Neural Additive Models (NAMs) with separate projection vectors for each risk, our approach predicts the Cumulative Incidence Function using the Fine-Gray formulation, achieving high predictive power with intrinsically transparent and auditable predictions. We validated the model on several benchmark datasets and applied our model to predict future foot complications in diabetic patients across 29 Ontario hospitals (2016-2023). Our method achieves competitive performance compared to other deep survival models while providing transparency through shape functions and feature importance plots.


翻译:模型可解释性对于在医疗应用中建立AI安全性和临床医生信任至关重要,例如在竞争风险下的生存建模中。近期的深度学习模型已取得优异的预测性能,但其作为黑盒模型的有限透明度阻碍了其在临床实践中的整合。为弥补这一不足,我们提出了一种本质可解释的生存模型CRISPNAM-FG。该方法利用神经加法模型(NAMs)的结构,为每种风险设置独立的投影向量,通过Fine-Gray公式预测累积发生率函数,在实现高预测能力的同时提供本质透明且可审计的预测结果。我们在多个基准数据集上验证了该模型,并将其应用于预测安大略省29家医院(2016-2023年)糖尿病患者未来足部并发症的风险。与其他深度生存模型相比,我们的方法在保持竞争力的预测性能的同时,通过形状函数和特征重要性图表提供了透明度。

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
Top
微信扫码咨询专知VIP会员