Vision-Language Models (VLMs) are increasingly deployed as autonomous agents to navigate mobile graphical user interfaces (GUIs). Operating in dynamic on-device ecosystems, which include notifications, pop-ups, and inter-app interactions, exposes them to a unique and underexplored threat vector: environmental injection. Unlike prompt-based attacks that manipulate textual instructions, environmental injection corrupts an agent's visual perception by inserting adversarial UI elements (for example, deceptive overlays or spoofed notifications) directly into the GUI. This bypasses textual safeguards and can derail execution, causing privacy leakage, financial loss, or irreversible device compromise. To systematically evaluate this threat, we introduce GhostEI-Bench, the first benchmark for assessing mobile agents under environmental injection attacks within dynamic, executable environments. Moving beyond static image-based assessments, GhostEI-Bench injects adversarial events into realistic application workflows inside fully operational Android emulators and evaluates performance across critical risk scenarios. We further propose a judge-LLM protocol that conducts fine-grained failure analysis by reviewing the agent's action trajectory alongside the corresponding screenshot sequence, pinpointing failure in perception, recognition, or reasoning. Comprehensive experiments on state-of-the-art agents reveal pronounced vulnerability to deceptive environmental cues: current models systematically fail to perceive and reason about manipulated UIs. GhostEI-Bench provides a framework for quantifying and mitigating this emerging threat, paving the way toward more robust and secure embodied agents.


翻译:视觉-语言模型正越来越多地被部署为自主智能体,用于操作移动图形用户界面。在动态的设备端生态系统中运行——包括通知、弹窗和应用间交互——使其暴露于一种独特且尚未被充分探索的攻击向量:环境注入。与操纵文本指令的基于提示的攻击不同,环境注入通过在图形用户界面中直接插入对抗性UI元素(例如,欺骗性覆盖层或伪造的通知)来破坏智能体的视觉感知。这绕过了文本安全防护,可能导致执行偏离正轨,引发隐私泄露、财务损失或不可逆的设备危害。为了系统性地评估这一威胁,我们引入了GhostEI-Bench,这是首个用于在动态、可执行环境中评估移动智能体抵御环境注入攻击能力的基准测试。GhostEI-Bench超越了基于静态图像的评估,将对抗性事件注入到完全运行的Android模拟器内的真实应用工作流中,并在关键风险场景下评估性能。我们进一步提出了一种评判大语言模型协议,该协议通过审查智能体的动作轨迹及相应的屏幕截图序列来进行细粒度故障分析,精确定位故障发生在感知、识别还是推理环节。在最先进智能体上进行的大量实验揭示了其对欺骗性环境线索的显著脆弱性:当前模型普遍无法感知和推理被操纵的用户界面。GhostEI-Bench为量化和缓解这一新兴威胁提供了一个框架,为开发更鲁棒、更安全的具身智能体铺平了道路。

0
下载
关闭预览

相关内容

AI智能体时代大模型安全风险与攻防新挑战
专知会员服务
11+阅读 · 2月27日
智能体工程(Agent Engineering)
专知会员服务
33+阅读 · 2025年12月31日
智能体安全综述:应用、威胁与防御
专知会员服务
41+阅读 · 2025年10月12日
自进化智能体综述:通往人工超级智能之路
专知会员服务
38+阅读 · 2025年7月30日
多模态移动智能体的基础与最新趋势:综述
专知会员服务
37+阅读 · 2024年11月6日
针对自动驾驶智能模型的攻击与防御
专知会员服务
19+阅读 · 2024年6月25日
专访俞栋:多模态是迈向通用人工智能的重要方向
AI科技评论
26+阅读 · 2019年9月9日
Spooftooph - 用于欺骗或克隆蓝牙设备的自动工具
黑白之道
17+阅读 · 2019年2月27日
科普 | 动态本体简介
开放知识图谱
14+阅读 · 2017年11月11日
深度学习中的注意力机制
CSDN大数据
24+阅读 · 2017年11月2日
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
VIP会员
最新内容
最新“指挥控制”领域出版物合集(16份)
专知会员服务
7+阅读 · 4月12日
面向军事作战需求开发的人工智能(RAIMOND)
专知会员服务
15+阅读 · 4月12日
远程空中优势:新一代超视距导弹的兴起
专知会员服务
2+阅读 · 4月12日
大语言模型溯因推理的统一分类学与综述
专知会员服务
3+阅读 · 4月12日
相关基金
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员