Trustworthy clinical summarization requires not only fluent generation but also transparency about where each statement comes from. We propose a training-free framework for generation-time source attribution that leverages decoder attentions to directly cite supporting text spans or images, overcoming the limitations of post-hoc or retraining-based methods. We introduce two strategies for multimodal attribution: a raw image mode, which directly uses image patch attentions, and a caption-as-span mode, which substitutes images with generated captions to enable purely text-based alignment. Evaluations on two representative domains: clinician-patient dialogues (CliConSummation) and radiology reports (MIMIC-CXR), show that our approach consistently outperforms embedding-based and self-attribution baselines, improving both text-level and multimodal attribution accuracy (e.g., +15% F1 over embedding baselines). Caption-based attribution achieves competitive performance with raw-image attention while being more lightweight and practical. These findings highlight attention-guided attribution as a promising step toward interpretable and deployable clinical summarization systems.


翻译:可信的临床摘要不仅需要流畅的生成,还需明确陈述来源。我们提出了一种无需训练、在生成时进行来源归因的框架,该框架利用解码器注意力机制直接引用支持性文本片段或图像,克服了事后归因或基于重训练方法的局限性。我们引入了两种多模态归因策略:原始图像模式,直接利用图像块注意力;以及标题即片段模式,用生成的标题替代图像,实现纯文本对齐。在两个代表性领域进行评估:临床医患对话(CliConSummation)和放射学报告(MIMIC-CXR),结果表明,我们的方法在基于嵌入和自归因基线方法上均表现更优,提升了文本层面和多模态归因的准确性(例如,F1分数比嵌入基线提高15%)。基于标题的归因在保持与原始图像注意力相当性能的同时,更为轻量且实用。这些发现凸显了注意力引导的归因作为迈向可解释、可部署临床摘要系统的重要一步。

0
下载
关闭预览

相关内容

《大型语言模型归因》综述
专知会员服务
75+阅读 · 2023年11月8日
【AAAI 2022】用于文本摘要任务的序列级对比学习模型
专知会员服务
25+阅读 · 2022年1月11日
首篇「多模态摘要」综述论文
专知会员服务
106+阅读 · 2021年9月14日
专知会员服务
149+阅读 · 2020年9月6日
AAAI 2020 | 多模态基准指导的生成式多模态自动文摘
AI科技评论
16+阅读 · 2020年1月5日
【论文笔记】基于强化学习的句子摘要排序
面试题:文本摘要中的NLP技术
七月在线实验室
15+阅读 · 2019年5月13日
用深度学习做文本摘要
专知
24+阅读 · 2019年3月30日
最新论文解读 | 基于预训练自然语言生成的文本摘要方法
微软研究院AI头条
57+阅读 · 2019年3月19日
干货|当深度学习遇见自动文本摘要,seq2seq+attention
机器学习算法与Python学习
10+阅读 · 2018年5月28日
论文报告 | Graph-based Neural Multi-Document Summarization
科技创新与创业
15+阅读 · 2017年12月15日
国家自然科学基金
23+阅读 · 2016年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
23+阅读 · 2016年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员