Understanding urban perception from street view imagery has become a central topic in urban analytics and human centered urban design. However, most existing studies treat urban scenes as static and largely ignore the role of dynamic elements such as pedestrians and vehicles, raising concerns about potential bias in perception based urban analysis. To address this issue, we propose a controlled framework that isolates the perceptual effects of dynamic elements by constructing paired street view images with and without pedestrians and vehicles using semantic segmentation and MLLM guided generative inpainting. Based on 720 paired images from Dongguan, China, a perception experiment was conducted in which participants evaluated original and edited scenes across six perceptual dimensions. The results indicate that removing dynamic elements leads to a consistent 30.97% decrease in perceived vibrancy, whereas changes in other dimensions are more moderate and heterogeneous. To further explore the underlying mechanisms, we trained 11 machine learning models using multimodal visual features and identified that lighting conditions, human presence, and depth variation were key factors driving perceptual change. At the individual level, 65% of participants exhibited significant vibrancy changes, compared with 35-50% for other dimensions; gender further showed a marginal moderating effect on safety perception. Beyond controlled experiments, the trained model was extended to a city-scale dataset to predict vibrancy changes after the removal of dynamic elements. The city level results reveal that such perceptual changes are widespread and spatially structured, affecting 73.7% of locations and 32.1% of images, suggesting that urban perception assessments based solely on static imagery may substantially underestimate urban liveliness.


翻译:从街景图像理解城市感知已成为城市分析和人本城市设计的核心议题。然而,现有研究大多将城市场景视为静态,基本忽略了行人、车辆等动态元素的作用,这引发了基于感知的城市分析可能存在偏差的担忧。为解决该问题,本研究提出一种受控框架:通过语义分割与MLLM引导的生成式修复技术,构建包含/不包含行人及车辆的配对街景图像,以分离动态元素的感知效应。基于中国东莞的720组配对图像,我们开展了感知实验,参与者从六个感知维度对原始场景与编辑后场景进行评价。结果表明:移除动态元素会导致感知活力度一致下降30.97%,而其他维度的变化则更为温和且异质。为深入探究内在机制,我们利用多模态视觉特征训练了11个机器学习模型,发现光照条件、人类活动存在度与景深变化是驱动感知变化的关键因素。在个体层面,65%的参与者表现出显著的活力度变化,其他维度则为35-50%;性别因素对安全感知存在边际调节效应。在受控实验之外,训练模型被拓展至城市尺度数据集,以预测移除动态元素后的活力度变化。城市尺度分析显示,此类感知变化具有广泛性及空间结构性:影响73.7%的地理位置与32.1%的图像,表明仅基于静态图像的城市场景感知评估可能严重低估城市活力。

0
下载
关闭预览

相关内容

面向复杂城市系统的物理引导人工智能综述
专知会员服务
23+阅读 · 2025年6月18日
文本、视觉与语音生成的自动化评估方法综述
专知会员服务
20+阅读 · 2025年6月15日
城市大数据认知计算研究与应用进展
专知会员服务
29+阅读 · 2024年7月18日
基于人机智能融合技术的态势感知应用研究
专知会员服务
95+阅读 · 2024年2月11日
专知会员服务
53+阅读 · 2020年12月19日
数据驱动的态势认知技术及发展思考
专知
18+阅读 · 2022年7月12日
交互设计理论:视觉感知、认知摩擦、认知负荷和情境认知
人人都是产品经理
20+阅读 · 2018年5月10日
【学界】 李飞飞学生最新论文:利用场景图生成图像
GAN生成式对抗网络
15+阅读 · 2018年4月9日
报名 | 让机器读懂你的意图——人体姿态估计入门
人工智能头条
10+阅读 · 2017年9月19日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关资讯
数据驱动的态势认知技术及发展思考
专知
18+阅读 · 2022年7月12日
交互设计理论:视觉感知、认知摩擦、认知负荷和情境认知
人人都是产品经理
20+阅读 · 2018年5月10日
【学界】 李飞飞学生最新论文:利用场景图生成图像
GAN生成式对抗网络
15+阅读 · 2018年4月9日
报名 | 让机器读懂你的意图——人体姿态估计入门
人工智能头条
10+阅读 · 2017年9月19日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员