Object hallucination in Multimodal Large Language Models (MLLMs) is a persistent failure mode that causes the model to perceive objects absent in the image. This weakness of MLLMs is currently studied using static benchmarks with fixed visual scenarios, which preempts the possibility of uncovering model-specific or unanticipated hallucination vulnerabilities. We introduce GHOST (Generating Hallucinations via Optimizing Stealth Tokens), a method designed to stress-test MLLMs by actively generating images that induce hallucination. GHOST is fully automatic and requires no human supervision or prior knowledge. It operates by optimizing in the image embedding space to mislead the model while keeping the target object absent, and then guiding a diffusion model conditioned on the embedding to generate natural-looking images. The resulting images remain visually natural and close to the original input, yet introduce subtle misleading cues that cause the model to hallucinate. We evaluate our method across a range of models, including reasoning models like GLM-4.1V-Thinking, and achieve a hallucination success rate exceeding 28%, compared to around 1% in prior data-driven discovery methods. We confirm that the generated images are both high-quality and object-free through quantitative metrics and human evaluation. Also, GHOST uncovers transferable vulnerabilities: images optimized for Qwen2.5-VL induce hallucinations in GPT-4o at a 66.5% rate. Finally, we show that fine-tuning on our images mitigates hallucination, positioning GHOST as both a diagnostic and corrective tool for building more reliable multimodal systems.


翻译:多模态大语言模型(MLLMs)中的物体幻觉是一种持续存在的失效模式,会导致模型感知到图像中不存在的物体。目前对MLLMs这一弱点的研究主要依赖具有固定视觉场景的静态基准测试,这阻碍了发现模型特定或未预见的幻觉漏洞的可能性。我们提出了GHOST(通过优化隐式令牌生成幻觉),这是一种旨在通过主动生成诱导幻觉的图像来对MLLMs进行压力测试的方法。GHOST完全自动化,无需人工监督或先验知识。其工作原理是在图像嵌入空间中进行优化,以误导模型,同时确保目标物体不存在,然后引导一个以该嵌入为条件的扩散模型生成外观自然的图像。生成的图像在视觉上保持自然且接近原始输入,但引入了微妙的误导性线索,导致模型产生幻觉。我们在包括GLM-4.1V-Thinking等推理模型在内的一系列模型上评估了我们的方法,实现了超过28%的幻觉诱发成功率,而此前数据驱动的发现方法成功率约为1%。我们通过定量指标和人工评估证实,生成的图像既高质量又不包含目标物体。此外,GHOST揭示了可迁移的漏洞:针对Qwen2.5-VL优化的图像能以66.5%的比率在GPT-4o中诱发幻觉。最后,我们证明在我们的图像上进行微调可以缓解幻觉问题,这使GHOST成为一种既能用于诊断又能用于修正的工具,有助于构建更可靠的多模态系统。

0
下载
关闭预览

相关内容

多模态幻觉的评估与检测综述
专知会员服务
18+阅读 · 2025年7月28日
浅谈多模态大模型幻觉缓解方法
专知会员服务
24+阅读 · 2024年12月17日
大型视觉语言模型中幻觉现象的综述
专知会员服务
47+阅读 · 2024年10月24日
《多模态大型语言模型的幻觉现象》综述
专知会员服务
46+阅读 · 2024年4月30日
大模型的幻觉现象介绍
专知会员服务
66+阅读 · 2023年10月27日
多模态大模型的幻觉问题与评估
专知会员服务
57+阅读 · 2023年7月28日
【Tutorial】计算机视觉中的Transformer,98页ppt
专知
21+阅读 · 2021年10月25日
这可能是「多模态机器学习」最通俗易懂的介绍
计算机视觉life
113+阅读 · 2018年12月20日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员