Autonomous driving perception systems are particularly vulnerable in foggy conditions, where light scattering reduces contrast and obscures fine details critical for safe operation. While numerous defogging methods exist, from handcrafted filters to learned restoration models, improvements in image fidelity do not consistently translate into better downstream detection and segmentation. Moreover, prior evaluations often rely on synthetic data, raising concerns about real-world transferability. We present a structured empirical study that benchmarks a comprehensive set of defogging pipelines, including classical dehazing filters, modern defogging networks, chained variants combining filters and models, and prompt-driven visual language image editing models applied directly to foggy images. To bridge the gap between simulated and physical environments, we evaluate these pipelines on both the synthetic Foggy Cityscapes dataset and the real-world Adverse Conditions Dataset with Correspondences (ACDC). We examine generalization by evaluating performance on synthetic fog and real-world conditions, assessing both image quality and downstream perception in terms of object detection mean average precision and segmentation panoptic quality. Our analysis identifies when defogging is effective, the impact of combining models, and how visual language models compare to traditional approaches. We additionally report qualitative rubric-based evaluations from both human and visual language model judges and analyze their alignment with downstream task metrics. Together, these results establish a transparent, task-oriented benchmark for defogging methods and identify the conditions under which pre-processing meaningfully improves autonomous perception in adverse weather. Project page: https://aradfir.github.io/filters-to-vlms-defogging-page/


翻译:自动驾驶感知系统在雾天条件下尤为脆弱,光线散射会降低对比度并模糊对安全运行至关重要的细节特征。尽管存在从手工设计的滤波器到学习式复原模型等多种去雾方法,但图像保真度的提升并不总能转化为下游检测与分割性能的改善。此外,现有评估多依赖合成数据,其真实场景迁移性存疑。本研究提出结构化实证分析,系统评估涵盖经典去雾滤波器、现代去雾网络、滤波器与模型结合的级联变体,以及直接应用于雾图的提示驱动视觉语言图像编辑模型在内的完整去雾流程。为弥合仿真与物理环境间的差距,我们在合成数据集Foggy Cityscapes和真实世界对应性恶劣条件数据集(ACDC)上同步评估这些流程。通过考察合成雾与真实场景下的性能表现,我们从图像质量及下游感知(目标检测平均精度均值与分割全景质量)两个维度评估方法泛化能力。研究明确了去雾处理的有效条件、模型组合的影响机制,以及视觉语言模型与传统方法的对比表现。此外,我们同步报告基于人工评估与视觉语言模型评判的定性分级结果,并分析其与下游任务指标的一致性。综合而言,本研究建立了透明化、任务导向的去雾方法基准,明确了预处理在何种条件下能实质性提升恶劣天气中的自动驾驶感知性能。项目页面:https://aradfir.github.io/filters-to-vlms-defogging-page/

0
下载
关闭预览

相关内容

自动驾驶中的基础模型:场景生成与场景分析综述
专知会员服务
26+阅读 · 2025年6月16日
文本、视觉与语音生成的自动化评估方法综述
专知会员服务
20+阅读 · 2025年6月15日
遥感影像云检测和云去除方法综述
专知会员服务
23+阅读 · 2024年6月4日
图像去模糊研究综述
专知会员服务
21+阅读 · 2024年5月13日
CVPR 2022 | 基于密度与深度分解的自增强非成对图像去雾
专知会员服务
13+阅读 · 2022年6月30日
专知会员服务
43+阅读 · 2021年8月30日
ECCV2020 「去雾去雨去模糊」论文汇总
计算机视觉life
10+阅读 · 2020年10月19日
CVPR 2019 | 无监督领域特定单图像去模糊
PaperWeekly
14+阅读 · 2019年3月20日
图像降噪算法介绍及实现汇总
极市平台
26+阅读 · 2018年1月3日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员