Autonomous agents such as cars, robots and drones need to precisely localize themselves in diverse environments, including in GPS-denied indoor environments. One approach for precise localization is visual place recognition (VPR), which estimates the place of an image based on previously seen places. State-of-the-art VPR models require high amounts of memory, making them unwieldy for mobile deployment, while more compact models lack robustness and generalization capabilities. This work overcomes these limitations for robotics using a combination of event-based vision sensors and an event-based novel guided variational autoencoder (VAE). The encoder part of our model is based on a spiking neural network model which is compatible with power-efficient low latency neuromorphic hardware. The VAE successfully disentangles the visual features of 16 distinct places in our new indoor VPR dataset with a classification performance comparable to other state-of-the-art approaches while, showing robust performance also under various illumination conditions. When tested with novel visual inputs from unknown scenes, our model can distinguish between these places, which demonstrates a high generalization capability by learning the essential features of location. Our compact and robust guided VAE with generalization capabilities poses a promising model for visual place recognition that can significantly enhance mobile robot navigation in known and unknown indoor environments.


翻译:自动驾驶智能体(如汽车、机器人及无人机)需在多样化环境中实现精确定位,包括全球定位系统信号缺失的室内环境。视觉地点识别是实现精确定位的一种方法,该方法基于先前观测过的地点对图像位置进行估计。当前最先进的视觉地点识别模型需要大量内存,难以部署于移动平台,而更紧凑的模型则缺乏鲁棒性与泛化能力。本研究通过结合事件视觉传感器与新型事件驱动引导变分自编码器,克服了机器人应用中的这些局限。模型编码器部分基于脉冲神经网络架构,该架构兼容高能效、低延迟的神经形态硬件。该变分自编码器在我们新建的室内视觉地点识别数据集中,成功解耦了16个不同地点的视觉特征,其分类性能与现有先进方法相当,并在多种光照条件下保持稳定表现。当输入未知场景的新视觉数据时,模型能准确区分这些地点,表明其通过学习位置本质特征获得了强大的泛化能力。本研究提出的紧凑、鲁棒且具备泛化能力的引导变分自编码器,为视觉地点识别提供了具有前景的解决方案,可显著增强移动机器人在已知与未知室内环境中的导航能力。

0
下载
关闭预览

相关内容

自动驾驶中的3D目标检测研究进展
专知会员服务
11+阅读 · 2025年7月20日
《战场GPS拒止环境下基于地标定位的安全路径导航》
专知会员服务
18+阅读 · 2025年5月22日
用于识别任务的视觉 Transformer 综述
专知会员服务
75+阅读 · 2023年2月25日
混合增强视觉认知架构及其关键技术进展
专知会员服务
46+阅读 · 2021年11月20日
专知会员服务
37+阅读 · 2021年10月16日
专知会员服务
39+阅读 · 2021年9月7日
专知会员服务
11+阅读 · 2021年8月8日
自动驾驶高精度定位如何在复杂环境进行
智能交通技术
18+阅读 · 2019年9月27日
自动驾驶技术解读——自动驾驶汽车决策控制系统
智能交通技术
30+阅读 · 2019年7月7日
自动驾驶车辆定位技术概述|厚势汽车
厚势
10+阅读 · 2019年5月16日
深度学习在自动驾驶感知领域的应用
AI100
11+阅读 · 2019年3月6日
ECCV发布:228页教程全面理解视觉定位技术
专知
17+阅读 · 2018年9月12日
NLP中自动生产文摘(auto text summarization)
机器学习研究会
14+阅读 · 2017年10月10日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
VIP会员
相关VIP内容
自动驾驶中的3D目标检测研究进展
专知会员服务
11+阅读 · 2025年7月20日
《战场GPS拒止环境下基于地标定位的安全路径导航》
专知会员服务
18+阅读 · 2025年5月22日
用于识别任务的视觉 Transformer 综述
专知会员服务
75+阅读 · 2023年2月25日
混合增强视觉认知架构及其关键技术进展
专知会员服务
46+阅读 · 2021年11月20日
专知会员服务
37+阅读 · 2021年10月16日
专知会员服务
39+阅读 · 2021年9月7日
专知会员服务
11+阅读 · 2021年8月8日
相关资讯
自动驾驶高精度定位如何在复杂环境进行
智能交通技术
18+阅读 · 2019年9月27日
自动驾驶技术解读——自动驾驶汽车决策控制系统
智能交通技术
30+阅读 · 2019年7月7日
自动驾驶车辆定位技术概述|厚势汽车
厚势
10+阅读 · 2019年5月16日
深度学习在自动驾驶感知领域的应用
AI100
11+阅读 · 2019年3月6日
ECCV发布:228页教程全面理解视觉定位技术
专知
17+阅读 · 2018年9月12日
NLP中自动生产文摘(auto text summarization)
机器学习研究会
14+阅读 · 2017年10月10日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员