Autonomous Vehicles (AVs), especially vision-based AVs, are rapidly being deployed without human operators. As AVs operate in safety-critical environments, understanding their robustness in an adversarial environment is an important research problem. Prior physical adversarial attacks on vision-based autonomous vehicles predominantly target immediate safety failures (e.g., a crash, a traffic-rule violation, or a transient lane departure) by inducing a short-lived perception or control error. This paper shows a qualitatively different risk: a long-horizon route integrity compromise, where an attacker gradually steers a victim AV away from its intended route and into an attacker-chosen destination while the victim continues to drive "normally." This will not pose a danger to the victim vehicle itself, but also to potential passengers sitting inside the vehicle. In this paper, we design and implement the first adversarial framework, called JackZebra, that performs route-level hijacking of a vision-based end-to-end driving stack using a physically plausible attacker vehicle with a reconfigurable display mounted on the rear. The central challenge is temporal persistence: adversarial influence must remain effective in changing viewpoints, lighting, weather, traffic, and the victim's continual replanning -- without triggering conspicuous failures. Our key insight is to treat route hijacking as a closed-loop control problem and to convert adversarial patches into steering primitives that can be selected online via an interactive adjustment loop. Our adversarial patches are also carefully designed against worst-case background and sensor variations so that the adversarial impacts on the victim. Our evaluation shows that JackZebra can successfully hijack victim vehicles to deviate from original routes and stop at adversarial destinations with a high success rate.


翻译:自动驾驶汽车(AVs),特别是基于视觉的自动驾驶汽车,正迅速在无人类操作员的情况下部署。由于自动驾驶汽车在安全关键环境中运行,理解其在对抗环境中的鲁棒性是一个重要的研究问题。先前针对基于视觉自动驾驶汽车的物理对抗攻击主要通过引发短暂的感知或控制错误,主要针对即时安全故障(例如碰撞、违反交通规则或短暂偏离车道)。本文揭示了一种性质不同的风险:长时程路线完整性破坏,即攻击者逐渐将受害自动驾驶汽车从其预定路线引导至攻击者选择的目的地,而受害车辆仍在“正常”行驶。这不仅对受害车辆本身构成威胁,也对车内潜在乘客造成危险。在本文中,我们设计并实现了首个对抗框架,称为JackZebra,该框架利用一辆物理上可行的攻击者车辆(其后部安装可重构显示屏),对基于视觉的端到端驾驶系统执行路线级劫持。核心挑战在于时间持续性:对抗性影响必须在视角变化、光照条件、天气、交通状况以及受害车辆持续重新规划的情况下保持有效——且不引发明显的故障。我们的关键见解是将路线劫持视为一个闭环控制问题,并将对抗性补丁转化为可通过交互式调整循环在线选择的转向基元。我们的对抗性补丁还针对最坏情况的背景和传感器变化进行了精心设计,以确保对受害车辆的对抗性影响。评估结果表明,JackZebra能够成功劫持受害车辆偏离原始路线,并以高成功率停靠在对抗性目的地。

0
下载
关闭预览

相关内容

针对自动驾驶智能模型的攻击与防御
专知会员服务
19+阅读 · 2024年6月25日
自动驾驶中可解释AI的综述和未来研究方向
专知会员服务
69+阅读 · 2022年1月10日
【干货书】人工智能自动驾驶,AI FOR CARS,129页pdf
专知会员服务
104+阅读 · 2021年12月27日
自动驾驶技术解读——自动驾驶汽车决策控制系统
智能交通技术
30+阅读 · 2019年7月7日
自动驾驶车辆定位技术概述|厚势汽车
厚势
10+阅读 · 2019年5月16日
无人驾驶仿真软件
智能交通技术
22+阅读 · 2019年5月9日
自动驾驶汽车技术路线简介
智能交通技术
15+阅读 · 2019年4月25日
自动驾驶车载激光雷达技术现状分析
智能交通技术
17+阅读 · 2019年4月9日
【智能驾驶】97页PPT,读懂自动驾驶全产业链发展!
国家自然科学基金
12+阅读 · 2017年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
VIP会员
相关VIP内容
针对自动驾驶智能模型的攻击与防御
专知会员服务
19+阅读 · 2024年6月25日
自动驾驶中可解释AI的综述和未来研究方向
专知会员服务
69+阅读 · 2022年1月10日
【干货书】人工智能自动驾驶,AI FOR CARS,129页pdf
专知会员服务
104+阅读 · 2021年12月27日
相关资讯
自动驾驶技术解读——自动驾驶汽车决策控制系统
智能交通技术
30+阅读 · 2019年7月7日
自动驾驶车辆定位技术概述|厚势汽车
厚势
10+阅读 · 2019年5月16日
无人驾驶仿真软件
智能交通技术
22+阅读 · 2019年5月9日
自动驾驶汽车技术路线简介
智能交通技术
15+阅读 · 2019年4月25日
自动驾驶车载激光雷达技术现状分析
智能交通技术
17+阅读 · 2019年4月9日
【智能驾驶】97页PPT,读懂自动驾驶全产业链发展!
相关基金
国家自然科学基金
12+阅读 · 2017年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员