Structural heart disease (SHD) is a prevalent condition with many undiagnosed cases, and early detection is often limited by the high cost and accessibility constraints of echocardiography (ECHO). Recent studies show that artificial intelligence (AI)-based analysis of electrocardiograms (ECGs) can detect SHD, offering a scalable alternative. However, existing methods are fully black-box models, limiting interpretability and clinical adoption. To address these challenges, we propose an interpretable and effective framework that integrates clinically meaningful ECG foundation-model predictors within a generalized additive model, enabling transparent risk attribution while maintaining strong predictive performance. Using the EchoNext benchmark of over 80,000 ECG-ECHO pairs, the method demonstrates relative improvements of +0.98% in AUROC, +1.01% in AUPRC, and +1.41% in F1 score over the latest state-of-the-art deep-learning baseline, while achieving slightly better performance even with only 30% of the training data. Subgroup analyses confirm robust performance across heterogeneous populations, and the estimated entry-wise functions provide interpretable insights into the relationships between risks of traditional ECG diagnoses and SHD. This work illustrates a complementary paradigm between classical statistical modeling and modern AI, offering a pathway to interpretable, high-performing, and clinically actionable ECG-based SHD screening.


翻译:结构性心脏病(SHD)是一种普遍存在且许多病例未被诊断的疾病,其早期检测常因超声心动图(ECHO)的高成本和可及性限制而受限。近期研究表明,基于人工智能(AI)的心电图(ECG)分析能够检测SHD,提供了一种可扩展的替代方案。然而,现有方法均为完全的黑盒模型,限制了可解释性和临床采纳。为应对这些挑战,我们提出了一种可解释且有效的框架,该框架将具有临床意义的心电图基础模型预测器集成到广义可加模型中,在保持强大预测性能的同时实现透明的风险归因。使用包含超过80,000对ECG-ECHO数据的EchoNext基准测试,该方法在AUROC、AUPRC和F1分数上相较于最新的最先进深度学习基线分别实现了+0.98%、+1.01%和+1.41%的相对提升,并且即使在仅使用30%训练数据的情况下也取得了略优的性能。亚组分析证实了该方法在异质人群中的稳健性能,并且估计的逐项函数为传统心电图诊断风险与SHD之间的关系提供了可解释的见解。这项工作阐释了经典统计建模与现代AI之间的互补范式,为基于心电图的、可解释、高性能且具有临床可操作性的SHD筛查提供了一条路径。

0
下载
关闭预览

相关内容

【KDD2025】一种新颖的可解释性无监督异常检测模型
专知会员服务
7+阅读 · 2025年11月6日
基于扩散模型的异常检测综述
专知会员服务
30+阅读 · 2025年1月23日
可解释的机器学习模型和架构
专知会员服务
92+阅读 · 2023年9月17日
打开黑盒:可解释机器学习在心脏病学中的前景和局限
专知会员服务
25+阅读 · 2022年7月22日
深度学习模型可解释性的研究进展
专知
26+阅读 · 2020年8月1日
大讲堂 | 基于医疗知识的疾病诊断预测
AI科技评论
10+阅读 · 2019年1月22日
深度学习时代的图模型,清华发文综述图网络
GAN生成式对抗网络
13+阅读 · 2018年12月23日
用模型不确定性理解模型
论智
11+阅读 · 2018年9月5日
医学知识图谱构建技术与研究进展
全球人工智能
19+阅读 · 2017年11月13日
深度学习目标检测模型全面综述:Faster R-CNN、R-FCN和SSD
深度学习世界
10+阅读 · 2017年9月18日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
VIP会员
最新内容
技术、多域威慑与海上战争(报告)
专知会员服务
6+阅读 · 4月13日
“在云端防御”:提升北约数据韧性(报告)
专知会员服务
3+阅读 · 4月13日
人工智能及其在海军行动中的整合(综述)
专知会员服务
3+阅读 · 4月13日
美军MAVEN项目全面解析:算法战架构
专知会员服务
19+阅读 · 4月13日
从俄乌战场看“马赛克战”(万字长文)
专知会员服务
13+阅读 · 4月13日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员