In clinical decision-making, predictive models face a persistent trade-off: accurate models are often opaque "black boxes," while interpretable methods frequently lack predictive precision or statistical grounding. In this paper, we challenge this dichotomy, positing that high predictive accuracy and high-quality descriptive explanations are not competing goals but synergistic outcomes of a deep, first-hand understanding of data. We propose the Reflective Cognitive Architecture (RCA), a novel framework designed to enable Large Language Models (LLMs) to learn directly from tabular data through experience and reflection. RCA integrates two core mechanisms: an iterative rules optimization process that refines logical argumentation by learning from prediction errors, and a distribution-aware rules check that grounds this logic in global statistical evidence to ensure robustness. We evaluated RCA against over 20 baselines - ranging from traditional machine learning to advanced reasoning LLMs and agents - across diverse medical datasets, including a proprietary real-world Catheter-Related Thrombosis (CRT) cohort. Crucially, to demonstrate real-world scalability, we extended our evaluation to two large-scale datasets. The results confirm that RCA achieves state-of-the-art predictive performance and superior robustness to data noise while simultaneously generating clear, logical, and evidence-based explanatory statements, maintaining its efficacy even at scale. The code is available at https://github.com/ssssszj/RCA.


翻译:在临床决策中,预测模型面临着一个持续的权衡:准确的模型往往是难以理解的“黑箱”,而可解释的方法则常常缺乏预测精度或统计依据。本文挑战这种二分法,提出高预测准确性与高质量描述性解释并非相互竞争的目标,而是对数据获得深刻、第一手理解的协同结果。我们提出了反思性认知架构(RCA),这是一个新颖的框架,旨在使大型语言模型(LLMs)能够通过经验和反思直接从表格数据中学习。RCA整合了两个核心机制:一个通过从预测错误中学习来优化逻辑论证的迭代规则优化过程,以及一个将这种逻辑建立在全局统计证据之上以确保鲁棒性的分布感知规则检查。我们在包括一个专有的真实世界导管相关血栓形成(CRT)队列在内的多样化医疗数据集上,将RCA与超过20个基线模型——从传统机器学习到先进的推理LLMs和智能体——进行了评估。至关重要的是,为了展示现实世界的可扩展性,我们将评估扩展到了两个大规模数据集。结果证实,RCA在实现最先进的预测性能和卓越的数据噪声鲁棒性的同时,能够生成清晰、逻辑性强且基于证据的解释性陈述,即使在大规模场景下也能保持其有效性。代码可在 https://github.com/ssssszj/RCA 获取。

0
下载
关闭预览

相关内容

【干货书】预测原理与实战,Forecasting: Principles & Practice
专知会员服务
96+阅读 · 2022年4月11日
最新《监督机器学习可解释性》2020大综述论文,74页pdf
专知会员服务
130+阅读 · 2020年11月19日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
132+阅读 · 2020年5月14日
医疗中的自动机器学习和可解释性
专知
24+阅读 · 2019年4月1日
【机器学习】深入剖析机器学习中的统计思想
产业智能官
17+阅读 · 2019年1月24日
大讲堂 | 基于医疗知识的疾病诊断预测
AI科技评论
10+阅读 · 2019年1月22日
回归预测&时间序列预测
GBASE数据工程部数据团队
44+阅读 · 2017年5月17日
国家自然科学基金
23+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
VIP会员
相关基金
国家自然科学基金
23+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员