Modern vehicles equip dashcams that primarily collect visual evidence for traffic accidents. However, most of the video data collected by dashcams that is not related to traffic accidents is discarded without any use. In this paper, we present a use case for dashcam videos that aims to improve driving safety. By analyzing the real-time videos captured by dashcams, we can detect driving hazards and driver distractedness to alert the driver immediately. To that end, we design and implement a Distributed Edge-based dashcam Video Analytics system (DEVA), that analyzes dashcam videos using personal edge (mobile) devices in a vehicle. DEVA consolidates available in-vehicle edge devices to maintain the resource pool, distributes video frames for analysis to devices considering resource availability in each device, and dynamically adjusts frame rates of dashcams to control the overall workloads. The entire video analytics task is divided into multiple independent phases and executed in a pipelined manner to improve the overall frame processing throughput. We implement DEVA in an Android app and also develop a dashcam emulation app to be used in vehicles that are not equipped with dashcams. Experimental results using the apps and commercial smartphones show that DEVA can process real-time videos from two dashcams with frame rates of around 22~30 FPS per camera within 200 ms of latency, using three high-end devices.


翻译:现代车辆配备的行车记录仪主要收集交通事故的视觉证据。然而,大部分与交通事故无关的行车记录仪视频数据未经任何使用即被丢弃。本文提出一种旨在提升驾驶安全性的行车记录仪视频应用案例。通过分析行车记录仪捕获的实时视频,系统可检测驾驶危险与驾驶员分心行为,并及时向驾驶员发出警报。为此,我们设计并实现了分布式边缘行车记录仪视频分析系统(DEVA),该系统利用车辆内的个人边缘(移动)设备分析行车记录仪视频。DEVA整合可用的车载边缘设备以维护资源池,根据各设备资源可用性分配待分析视频帧,并动态调节行车记录仪帧率以控制系统整体负载。整个视频分析任务被划分为多个独立阶段,采用流水线方式执行以提升整体帧处理吞吐量。我们将DEVA实现为Android应用,并开发了行车记录仪仿真应用供未配备行车记录仪的车辆使用。通过应用测试与商用智能手机的实验结果表明:使用三台高端设备时,DEVA可在200毫秒延迟内处理来自两个行车记录仪的实时视频,每台相机帧率约为22~30 FPS。

0
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
82+阅读 · 2020年7月26日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
32+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
164+阅读 · 2019年10月12日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
From Softmax to Sparsemax-ICML16(1)
KingsGarden
74+阅读 · 2016年11月26日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Meta-Transfer Learning for Zero-Shot Super-Resolution
Arxiv
43+阅读 · 2020年2月27日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
From Softmax to Sparsemax-ICML16(1)
KingsGarden
74+阅读 · 2016年11月26日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员