In clinical machine learning, the coexistence of multiple models with comparable performance (a manifestation of the Rashomon Effect) poses fundamental challenges for trustworthy deployment and evaluation. Small, imbalanced, and noisy datasets, coupled with high-dimensional and weakly identified clinical features, amplify this multiplicity and make conventional validation schemes unreliable. As a result, selecting among equally performing models becomes uncertain, particularly when resource constraints and operational priorities are not considered by conventional metrics like F1 score. To address these issues, we propose two complementary tools for robust model assessment and selection: Intervention Efficiency (IE) and the Perturbation Validation Framework (PVF). IE is a capacity-aware metric that quantifies how efficiently a model identifies actionable true positives when only limited interventions are feasible, thereby linking predictive performance with clinical utility. PVF introduces a structured approach to assess the stability of models under data perturbations, identifying models whose performance remains most invariant across noisy or shifted validation sets. Empirical results on synthetic and real-world healthcare datasets show that using these tools facilitates the selection of models that generalize more robustly and align with capacity constraints, offering a new direction for tackling the Rashomon Effect in clinical settings.


翻译:在临床机器学习中,多个性能相近的模型共存(拉什蒙效应的体现)给可信部署与评估带来了根本性挑战。规模小、不平衡且噪声多的数据集,结合高维且弱识别的临床特征,放大了这种多重性,使得传统验证方案不可靠。因此,在性能相当的模型中进行选择变得不确定,尤其是当传统指标(如F1分数)未考虑资源限制和操作优先级时。为解决这些问题,我们提出了两种用于鲁棒模型评估与选择的互补工具:干预效率(IE)和扰动验证框架(PVF)。IE是一种容量感知指标,用于量化当仅可行有限干预时模型识别可操作真阳性的效率,从而将预测性能与临床效用联系起来。PVF引入了一种结构化方法来评估模型在数据扰动下的稳定性,识别那些在噪声或偏移验证集上性能保持最不变的模型。在合成和真实世界医疗数据集上的实证结果表明,使用这些工具有助于选择泛化更鲁棒且符合容量约束的模型,为应对临床环境中的拉什蒙效应提供了新方向。

0
下载
关闭预览

相关内容

深度强化学习中的可塑性损失:综述
专知会员服务
22+阅读 · 2024年11月8日
【NeurIPS 2022】扩散模型的深度平衡方法
专知会员服务
40+阅读 · 2022年11月5日
AAAI 2022 | 面向图数据的对抗鲁棒性研究
专知会员服务
22+阅读 · 2022年1月4日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
Arxiv
174+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
497+阅读 · 2023年3月31日
VIP会员
相关VIP内容
深度强化学习中的可塑性损失:综述
专知会员服务
22+阅读 · 2024年11月8日
【NeurIPS 2022】扩散模型的深度平衡方法
专知会员服务
40+阅读 · 2022年11月5日
AAAI 2022 | 面向图数据的对抗鲁棒性研究
专知会员服务
22+阅读 · 2022年1月4日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员