Large foundation models (LFMs) transform healthcare AI in prevention, diagnostics, and treatment. However, whether LFMs can provide truly personalized treatment recommendations remains an open question. Recent research has revealed multiple challenges for personalization, including the fundamental generalizability paradox: models achieving high accuracy in one clinical study perform at chance level in others, demonstrating that personalization and external validity exist in tension. This exemplifies broader contradictions in AI-driven healthcare: the privacy-performance paradox, scale-specificity paradox, and the automation-empathy paradox. As another challenge, the degree of causal understanding required for personalized recommendations, as opposed to mere predictive capacities of LFMs, remains an open question. N-of-1 trials -- crossover self-experiments and the gold standard for individual causal inference in personalized medicine -- resolve these tensions by providing within-person causal evidence while preserving privacy through local experimentation. Despite their impressive capabilities, this paper argues that LFMs cannot replace N-of-1 trials. We argue that LFMs and N-of-1 trials are complementary: LFMs excel at rapid hypothesis generation from population patterns using multimodal data, while N-of-1 trials excel at causal validation for a given individual. We propose a hybrid framework that combines the strengths of both to enable personalization and navigate the identified paradoxes: LFMs generate ranked intervention candidates with uncertainty estimates, which trigger subsequent N-of-1 trials. Clarifying the boundary between prediction and causation and explicitly addressing the paradoxical tensions are essential for responsible AI integration in personalized medicine.


翻译:大型基础模型(LFMs)正在变革预防、诊断和治疗领域的医疗人工智能。然而,LFMs能否提供真正个性化的治疗建议仍是一个悬而未决的问题。近期研究揭示了实现个性化面临的诸多挑战,包括根本性的泛化悖论:在某一临床研究中达到高准确率的模型,在其他研究中仅表现出随机水平的表现,这表明个性化与外部效度之间存在张力。这体现了人工智能驱动医疗中更广泛的矛盾:隐私-性能悖论、规模-特异性悖论以及自动化-共情悖论。另一项挑战在于,个性化推荐所需的因果理解程度(与LFMs单纯的预测能力相对)仍然未有定论。N-of-1试验——交叉自我实验及个性化医疗中个体因果推断的金标准——通过提供个体内因果证据,同时借助本地化实验保护隐私,有效化解了这些矛盾。尽管LFMs能力卓越,本文论证其无法取代N-of-1试验。我们认为LFMs与N-of-1试验具有互补性:LFMs擅长利用多模态数据从群体模式中快速生成假设,而N-of-1试验则精于对特定个体进行因果验证。我们提出一个融合两者优势的混合框架,以实现个性化并化解已识别的悖论:LFMs生成带有不确定性估计的干预候选方案排序,进而触发后续N-of-1试验。明确预测与因果的界限,并直面这些矛盾张力,对于负责任地将人工智能整合到个性化医疗中至关重要。

0
下载
关闭预览

相关内容

专门化大型语言模型综述
专知会员服务
35+阅读 · 2025年8月28日
面向统计学家的大型语言模型概述
专知会员服务
32+阅读 · 2025年3月16日
个性化大型语言模型综述:进展与未来方向
专知会员服务
43+阅读 · 2025年2月18日
大规模语言模型的个性化:综述
专知会员服务
43+阅读 · 2024年11月4日
大型语言模型疾病诊断综述
专知会员服务
32+阅读 · 2024年9月21日
用于疾病诊断的大型语言模型:范围综述
专知会员服务
26+阅读 · 2024年9月8日
基础模型促进医疗保健:挑战、机遇与未来发展方向
专知会员服务
32+阅读 · 2024年4月5日
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
【AI与医学】多模态机器学习精准医疗健康
用户画像基础
DataFunTalk
12+阅读 · 2020年8月1日
NLP通用模型诞生?一个模型搞定十大自然语言常见任务
人工智能头条
10+阅读 · 2018年6月29日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
VIP会员
相关VIP内容
专门化大型语言模型综述
专知会员服务
35+阅读 · 2025年8月28日
面向统计学家的大型语言模型概述
专知会员服务
32+阅读 · 2025年3月16日
个性化大型语言模型综述:进展与未来方向
专知会员服务
43+阅读 · 2025年2月18日
大规模语言模型的个性化:综述
专知会员服务
43+阅读 · 2024年11月4日
大型语言模型疾病诊断综述
专知会员服务
32+阅读 · 2024年9月21日
用于疾病诊断的大型语言模型:范围综述
专知会员服务
26+阅读 · 2024年9月8日
基础模型促进医疗保健:挑战、机遇与未来发展方向
专知会员服务
32+阅读 · 2024年4月5日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员