Faithfulness hallucinations in VQA occur when vision-language models produce fluent yet visually ungrounded answers, severely undermining their reliability in safety-critical applications. Existing detection methods mainly fall into two categories: external verification approaches relying on auxiliary models or knowledge bases, and uncertainty-driven approaches using repeated sampling or uncertainty estimates. The former suffer from high computational overhead and are limited by external resource quality, while the latter capture only limited facets of model uncertainty and fail to sufficiently explore the rich internal signals associated with the diverse failure modes. Both paradigms thus have inherent limitations in efficiency, robustness, and detection performance. To address these challenges, we propose FaithSCAN: a lightweight network that detects hallucinations by exploiting rich internal signals of VLMs, including token-level decoding uncertainty, intermediate visual representations, and cross-modal alignment features. These signals are fused via branch-wise evidence encoding and uncertainty-aware attention. We also extend the LLM-as-a-Judge paradigm to VQA hallucination and propose a low-cost strategy to automatically generate model-dependent supervision signals, enabling supervised training without costly human labels while maintaining high detection accuracy. Experiments on multiple VQA benchmarks show that FaithSCAN significantly outperforms existing methods in both effectiveness and efficiency. In-depth analysis shows hallucinations arise from systematic internal state variations in visual perception, cross-modal reasoning, and language decoding. Different internal signals provide complementary diagnostic cues, and hallucination patterns vary across VLM architectures, offering new insights into the underlying causes of multimodal hallucinations.


翻译:视觉问答中的可信幻觉是指视觉语言模型生成流畅但缺乏视觉依据的答案,严重削弱了其在安全关键应用中的可靠性。现有检测方法主要分为两类:依赖辅助模型或知识库的外部验证方法,以及采用重复采样或不确定性估计的不确定性驱动方法。前者存在计算开销高、受限于外部资源质量的问题,后者仅能捕捉模型不确定性的有限方面,未能充分挖掘与多样化失效模式相关的丰富内部信号。因此,这两种范式在效率、鲁棒性和检测性能方面均存在固有局限。为应对这些挑战,我们提出FaithSCAN:一种通过利用视觉语言模型的丰富内部信号(包括词元级解码不确定性、中间视觉表示和跨模态对齐特征)来检测幻觉的轻量级网络。这些信号通过分支证据编码和不确定性感知注意力机制进行融合。我们还将LLM-as-a-Judge范式扩展至视觉问答幻觉检测,并提出一种低成本策略来自动生成模型相关的监督信号,从而在无需昂贵人工标注的情况下实现监督训练,同时保持高检测精度。在多个视觉问答基准上的实验表明,FaithSCAN在效果和效率上均显著优于现有方法。深入分析表明,幻觉源于视觉感知、跨模态推理和语言解码等系统内部状态的变化。不同的内部信号提供互补的诊断线索,且幻觉模式因视觉语言模型架构而异,这为理解多模态幻觉的成因提供了新视角。

0
下载
关闭预览

相关内容

大语言模型与视觉模型中的幻觉现象理解综述
专知会员服务
21+阅读 · 2025年10月2日
大型视觉语言模型中幻觉现象的综述
专知会员服务
47+阅读 · 2024年10月24日
360视角:大模型幻觉问题及其解决方案的深度探索与实践
《大型视觉语言模型中的幻觉现象》综述
专知会员服务
57+阅读 · 2024年2月2日
大模型的幻觉现象介绍
专知会员服务
66+阅读 · 2023年10月27日
多模态大模型的幻觉问题与评估
专知会员服务
57+阅读 · 2023年7月28日
CVPR 2019 | 无监督领域特定单图像去模糊
PaperWeekly
14+阅读 · 2019年3月20日
【优青论文】视觉问答技术研究
计算机研究与发展
13+阅读 · 2018年9月21日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
相关资讯
CVPR 2019 | 无监督领域特定单图像去模糊
PaperWeekly
14+阅读 · 2019年3月20日
【优青论文】视觉问答技术研究
计算机研究与发展
13+阅读 · 2018年9月21日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员