【泡泡一分钟】实现城市环境中定位的交叉视图匹配方法(CVPR-7)

2017 年 10 月 21 日 泡泡机器人SLAM 泡泡一分钟

每天一分钟,带你读遍机器人顶级会议文章


标题:Cross-View Image Matching for Geo-localization in UrbanEnvironments

作者:Yicong Tian, Chen Chen, Mubarak Shah

来源:CVPR 2017

编译:蔡纪源

播音员:大大马

欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权



 

摘要


今天介绍的文章是Cross-View Image Matching for Geo-localization inUrban Environments——实现城市地理定位的交叉视图匹配方法,该文章发表在VPR2017。


在本文中,作者旨在解决交叉视图地理定位问题。如下图所示,在带地理信息的鸟瞰图参考数据库中搜索匹配图像(图示右侧),来估计一幅街景视角的图像(图示左侧)所对应的GPS位置。

由于深卷积神经网络(CNN)在图像分类和目标检测中已经有了巨大成功,作者借此提出一个新的框架来解决交叉视图地理定位问题,流程示意图如下。

首先,采用Faster R-CNN[16]在待查询图像和参考图像中检测建筑物(下图颜色框)。

其次,对于待查询图像中的每个建筑物(下图最左4个检测框,代表4个建筑),我们使用训练好的Siamese网络(包含正匹配对和负匹配对)在参考建筑物中检索K最近邻(下图a中,4个聚类集合对应了待查询图像中4个建筑)。为让每个待查询建筑找到正确的最近邻,我们开发一个基于优势集(Dominant Set)的高效多个最近邻匹配方法(下图b)。这种方法同时考虑了全局相似和局部相似,最终用最优选取的4个建筑GPS平均值代表该查询图像的GPS位置(下图c)。

作者借用Google Street View Dataset建立了由成对街景和鸟瞰图像组成的新数据集,用于评估提出的算法框架。实验结果表明,该方法得到的地理定位精度优于其他方法,并且它能够推广到没见过的图像集上(未经训练的)。


啦啦啦!

如果你对本文感兴趣,想要下载完整文章进行阅读,可以关注【泡泡机器人SLAM】公众号

回复关键字“CVIM”,即可获取本文下载链接。




泡泡机器人SLAM的原创内容均由泡泡机器人的成员花费大量心血制作而成,希望大家珍惜我们的劳动成果,转载请务必注明出自【泡泡机器人SLAM】微信公众号,否则侵权必究!同时,我们也欢迎各位转载到自己的朋友圈,让更多的人能进入到SLAM这个领域中,让我们共同为推进中国的SLAM事业而努力!

商业合作及转载请联系[email protected]



登录查看更多
1

相关内容

专知会员服务
42+阅读 · 2020年2月20日
【泡泡一分钟】基于紧凑模型表示的三维重建(3dv-12)
泡泡机器人SLAM
10+阅读 · 2017年12月7日
【泡泡一分钟】重新认识SfM (CVPR-6)
泡泡机器人SLAM
22+阅读 · 2017年10月20日
Structure Aware SLAM using Quadrics and Planes
Arxiv
4+阅读 · 2018年8月13日
VIP会员
最新内容
《对信息环境分析实现人工智能预测冲突》96页
专知会员服务
0+阅读 · 49分钟前
《面向海军应用的无人机网络安全仿真环境》
专知会员服务
0+阅读 · 今天9:41
无人机与僵局:俄乌战争难以突破
专知会员服务
1+阅读 · 今天9:02
《控制对手感知:电子战愿景与赋能技术》
专知会员服务
1+阅读 · 今天8:51
自主、人工智能与可消耗集群时代的海军情报
专知会员服务
7+阅读 · 4月6日
“史诗狂怒行动”中的海军动态
专知会员服务
9+阅读 · 4月5日
大语言模型同策略蒸馏研究综述
专知会员服务
9+阅读 · 4月5日
Top
微信扫码咨询专知VIP会员